Walter begann mit einer kurzen Einführung in die Unterschiede und Gemeinsamkeiten von neuronalen maschinellen Übersetzungssystemen wie DeepL und Large Language Models wie ChatGPT. Dann wurden neben ausgewählten rechtlichen und ethischen Fragen hauptsächlich unterschiedliche Phänomene behandelt, die im Vergleich von Human- und KI-generierten Übersetzungen hervortreten.
Walter betonte, dass KI-generierte Übersetzungen unbedingt von Menschen kontrolliert und korrigiert werden müssten, weil diese ohne menschliche Supervision zum Teil erhebliche Schäden verursachen könnten. Sie meinte, solche Schäden durch mangelhafte Übersetzungsqualität würden nicht nur in Hochrisikosituationen auftreten, sondern auch – zugebenermaßen weniger offensichtlich und mit weniger drastischen Konsequenzen – etwa im Bereich der literarischen Übersetzung. Dort könne eine qualitativ minderwertige Übersetzung beispielsweise die Reputation von Autor:innen oder die Verbreitung von deren Werken beeinträchtigen.
Die Vortragende schlussfolgerte, dass KI-Anwendungen zweifellos die Produktivität und – unter bestimmten Umständen – auch die Kreativität von Sprachmittler:innen fördern könnten. Die Kontrolle über automatisierte Übersetzungsprozesse müsse jedoch im Sinne eines nachhaltigen Umgangs mit unserer linguistischen Umwelt in menschlicher Hand bleiben.
Die Aufzeichnung steht im eCampus der Universität Innsbruck zur Verfügung (für Nicht-Universitätsangehörige über den Gastzugang).
(Katharina Walter)