Herr Baumgarten, Sie beschäftigen sich seit vielen Jahren mit den gesellschaftlichen und ethischen Dimensionen der Translationstechnologie. Maschinelle Übersetzung ist zwar kein neues Phänomen, doch mit dem Aufkommen generativer KI-Systeme wie ChatGPT hat sich das Feld grundlegend verändert. Wie beurteilen Sie die Entwicklungen der letzten drei Jahre?
Im November 2022 ging mit ChatGPT erstmals ein generatives Sprachmodell an den Start, das nicht nur für Expert:innen, sondern für eine breite Öffentlichkeit zugänglich war. Seitdem lernt diese Öffentlichkeit überhaupt erst, wie man mit den vielen Funktionalitäten dieser Technologie – unter anderem beim Übersetzen – umgeht. Chronologisch etwas strenger betrachtet begann der Umbruch früher. Seit Mitte der 2010er-Jahre brachte die neuronale maschinelle Übersetzung (NMÜ), die ja auch auf maschinellem Lernen basiert, einen massiven Qualitätsschub. NMÜ wird daher seit zirka 10 Jahren auch in anderen Berufssparten und im privaten Bereich verstärkt verwendet. Das Aufkommen frei zugänglicher generativer KI-Systeme seit 2022 führt nun eine weitere ganz neue technologische Facette in die Übersetzungspraxis ein.
Der entscheidende Unterschied zwischen klassischer NMÜ und KI liegt nämlich in der Interaktivität. Systeme wie DeepL oder Google Translate übersetzen den eingegebenen Text und das war’s. Mit einem generativen Sprachmodell hingegen kann ich, fast wie mit einer menschlichen Kollegin, kooperieren: Ich kann der KI eine Rolle zuweisen, Übersetzungsaufträge formulieren, den Ausgangstext analysieren lassen, Terminologie extrahieren, Übersetzungen generieren und anschließend gemeinsam mit der Maschine, oder allein, das Ergebnis redigieren – und es gibt sicher noch mehr potenzielle Funktionen allein für das Übersetzen. Diese dialogische und multifunktionale Dimension ist neu. Verantwortung kann aber durch diese neue Interaktivität nicht automatisiert werden, sondern bleibt weiterhin bei den übersetzenden Personen.
Im professionellen Übersetzen beobachten wir derzeit, dass sogenannte Computer-Assisted-Translation Tools (CAT-Tools) und NMÜs zunehmend mit generativen Sprachmodellen kombiniert werden. CAT-Tools beziehen sich häufig auf die seit den 1980ern eingesetzten Translation-Memory-Systeme. Die werden seit Anfang des Jahrtausends von einer großen Zahl professioneller Übersetzer:innen verwendet. Diese Systeme nutzen ältere Übersetzungen und deren Originaltexte als Grundlage und geben den Übersetzenden dann Vorschläge. Je größer die Datenbank, desto besser sind die Vorschläge.
Parallel zu diesen praxisbedingten Transformationen wird es sehr wahrscheinlich in der translationswissenschaftlichen Forschung bald eine Welle an Arbeiten zum richtigen Prompting für das Übersetzen mit KI und allgemein zu möglichst effizienter Translator-Machine-Interaction geben. Das hat aber oft zunächst wenig mit Ethik zu tun. Aus ethischer Perspektive erscheint die Technologie selbst weniger problematisch als die zugrunde liegenden Besitz- und Machtverhältnisse, denn KI-Systeme werden von wenigen finanzstarken Plutokraten kontrolliert.
Zugleich verbreitet sich – nicht nur von oben verordnet, sondern auch diskursiv reproduziert – die implizite Botschaft, dass sprachliche und kulturelle Expertise plötzlich leicht austauschbar sei. Es ist aber klar, dass der globale Übersetzungsbedarf steigt und dass wir deshalb weiterhin Übersetzer:innen in allen Textdomänen brauchen. Denn selbst automatisierte Fachtextübersetzungen lassen sich ohne menschliche Nacharbeit – dem Post-Editing – nicht seriös verkaufen.
Natürlich gibt es ein – nennen wir es einfach mal – Nachbearbeitungsgefälle von hochkreativen Texten wie Lyrik bis hin zu stark standardisierten Fach- und Gebrauchstexten. Und ja: Niemand ist im Übersetzerhimmel, wenn er oder sie händisch einen drögen Beipackzettel übersetzt. Wenn Maschinen diese monotone Arbeit übernehmen, ist das durchaus entlastend. Gleichzeitig herrscht aber eine massive Verunsicherung bei Berufseinsteiger:innen, Ausbildungseinrichtungen und in der Branche insgesamt. Wie die Branche in zehn Jahren aussieht, kann ich nicht seriös prognostizieren. Sicher ist nur eines: Die großen Investoren und Konzerne bestimmen die Spielregeln. Und diejenigen, die den weltweit steigenden Übersetzungsbedarf tatsächlich abarbeiten, werden dabei zunehmend schlank gehalten, oder, um es klar zu sagen: ausgebeutet.
Angesichts der rasanten technologischen Fortschritte der letzten Jahre drängt sich die vielerorts diskutierte Frage auf: Handelt es sich bei der gegenwärtigen KI-Euphorie um einen kurzfristigen Hype – oder erleben wir tatsächlich eine nachhaltige Transformation des Übersetzens?
Ich denke, man muss hier zwei Ebenen unterscheiden. In Bezug auf den allgemeinen KI-Hype werden sich die Dinge durchaus normalisieren. Jede technologische Umbruchphase produziert einen gewissen messianischen Überschwang, mit Heilsversprechen und unzähligen Übertreibungen. Das ist nichts Neues. Gleichzeitig erleben wir aber etwas, das weit über einen kurzfristigen Hype hinausgeht. Was sich derzeit fundamental verschiebt, ist unsere Wahrnehmung und Praxis von Kommunikation selbst. Man kann hier durchaus von einer Zäsur kopernikanischen Ausmaßes sprechen.
Wir sind nicht mehr die einzigen Akteur:innen im Kommunikationsgeschehen. Die Maschine spricht jetzt mit. Im kommunikativen Prozess ist eine neue Akteurin hinzugekommen, und zwar keine menschliche. Das verändert grundlegend, wie Texte entstehen, wie sie zirkulieren und wie Verantwortung verteilt wird. Überträgt man das auf das Übersetzen, dann erleben wir tatsächlich eine nachhaltige Transformation. Es vergeht kaum ein Tag, ohne dass neue KI-Modelle, CAT-Tools oder Translation-Apps vorgestellt werden, oft begleitet von einer techno-utopischen Rhetorik. Dieses Moment der Übertreibung gehört zum Innovationszyklus.
Doch unter der Oberfläche geschieht etwas strukturelleres: Übersetzen wird effizienter, schneller, stärker automatisiert, und setzt damit das traditionelle Berufsbild massiv unter Druck. Wie weit sich etwa Speech-to-Speech-Übersetzung entwickeln wird und welche Folgen das für das Dolmetschen hat, lässt sich derzeit kaum abschätzen. Hinzu kommt die soziale Realität der Branche. Übersetzer:innen arbeiten überwiegend freiberuflich, häufig in prekären, projektbasierten Verhältnissen. Plattformökonomien verstärken diese Tendenzen und tragen zur schleichenden Entwertung menschlicher Arbeit bei. Gleichzeitig entstehen neue techno-translatorische Kompetenzfelder – Datenkurationsarbeit, Post-Editing, KI-Lokalisierung oder Qualitätsbewertung –, die ein neues und erweitertes Berufsverständnis verlangen.
All das verändert nicht nur Arbeitsabläufe, sondern auch unser Verständnis dessen, was dieser zutiefst kulturell verankerte Prozess des Übersetzens überhaupt bedeutet. Das Überqueren sprachlicher Grenzen bedeutet ja viel mehr als ein schlicht mathematischer Austauschprozess sprachlicher Codes, da passiert viel auf kultureller, gesellschaftlicher, psychologischer, gar individuell-emotionaler Ebene. In der öffentlichen Wahrnehmung, und leider auch seitens Unternehmen und der Computerwissenschaft, wird Übersetzung zunehmend jedoch zu einem technisch dominierten hybriden Prozess zwischen maschinischer Berechnung und menschlicher Intuition gemacht.
Diese maschinische Interaktion ist also zumindest gekommen, um zu bleiben. Entscheidend ist dabei weniger die Frage, ob sich die Technologie durchsetzt – das tut sie sowieso –, sondern unter welchen sozialen, ökonomischen und ethischen Bedingungen sie eingesetzt wird. Denn mit den neuen Werkzeugen verschieben sich auch der Status des Berufs und professionelle Rollenbilder sowie die Kompetenzanforderungen, aber auch die Art der Leistungs- und Qualitätskontrolle. Und hier wären wir wieder bei den Machtverhältnissen, denn diese Verschiebungen verlaufen derzeit ganz eindeutig zugunsten derjenigen Akteur:innen, die über Kapital, Plattformen und Daten verfügen, und eben nicht zugunsten derer, die die eigentliche Übersetzungsarbeit leisten.
Die Grenze zwischen menschlichem und maschinellem Übersetzen wird also zunehmend durchlässig. Was bedeutet das für das Selbstverständnis des Übersetzens und die Rolle des Menschen in dem Prozess?
Das ist eine gute Frage, weil sie uns erlaubt, Übersetzen zunächst als grundlegenden ‚natürlichen‘ Kommunikationsprozess zu betrachten. Es ist zwar immer heikel zu entscheiden, wann ein Übersetzungsvorgang als ‚natürlich‘ und wann als gesellschaftlich konstruiert betrachtet werden kann. Klar ist aber: Über Jahrhunderte hinweg war Übersetzen eine genuin menschliche Tätigkeit, eine soziokulturelle, kommunikative und interpretative Praxis, die auf Kontextwissen, Empathie und ästhetischem Feingefühl beruhte. Die zunehmende Durchlässigkeit zwischen menschlichem und maschinellem Übersetzen stellt dieses ‚natürliche‘ Selbstverständnis des Übersetzens heute grundlegend infrage: sowohl in Bezug auf den Prozess mit seinen dazugehörigen kommunikativen und sprachlichen Kompetenzen als auch hinsichtlich des Berufs und der Rolle professioneller Übersetzer:innen.
Mit der Integration von KI verschwimmt die Akteurslage: Übersetzen ist immer häufiger ein hybrider Prozess, an dem menschliche und maschinelle Instanzen beteiligt sind. Ein zentraler Punkt ist dabei die Frage der Kreativität. Übersetzungen bewegen sich auf einem Kontinuum: Sprachlich komplexe, literarische Texte erfordern ein hohes Maß an Kreativität, während stärker normierte Texte – etwa technische Texte oder Rezepte – vor allem terminologisch geprägt sind. An dem einen Pol wird intensiv erforscht, wie sich menschliche Kreativität im Zusammenspiel mit KI verändert.1 Am anderen Pol stellt sich die Frage, wie sich bei scheinbar ‚leichter‘ übersetzbaren Texten die Translator-Machine-Interaction, etwa durch gezieltes Prompting, möglichst effizient gestalten lässt.2
Wie bei anderen Technologien geht es letztlich darum, monotone oder wenig anspruchsvolle Teile der Arbeit an Maschinen zu delegieren, ohne dabei die menschliche Verantwortung, Urteilskraft und Gestaltungsfreiheit aus dem Übersetzungsprozess zu verdrängen. Das Übersetzen von Texten war schon immer ein eher unsichtbarer Berufsstand. Nun droht der Beruf nicht nur unsichtbar zu bleiben, sondern sich zugleich in seinen Kompetenzanforderungen drastisch zu verändern. Wichtig wird zunehmend die Aneignung einer Machine Translation Literacy, die im professionellen Bereich zu einer Professional Machine Translation Literacy ausgeweitet werden kann.3
Das professionelle Selbstverständnis wird sich – wie in vielen anderen Berufen – zunehmend in Richtung einer hybriden technologischen sowie sprach- und kulturvermittelnden Tätigkeit verschieben. Gleichzeitig entfallen klassische Arbeitsanteile: händische Recherche, langes Nachschlagen in Wörterbüchern, manuelle Terminologiearbeit oder auch das Suchen nach Paralleltexten in der Zielsprache. Aktuelle Translationstechnologien erledigen all dies mit atemberaubender Geschwindigkeit und mathematischer Präzision. Der Mensch bleibt dennoch der zentrale Bezugspunkt, schon allein deshalb, weil die rechtliche und ethische Verantwortung nicht bei der Maschine liegt. Man denke nur an Texte, etwa in juristischen oder technischen Kontexten, bei denen Fehler gravierende oder sogar lebensbedrohliche Folgen haben können.
Ein Ziel des neu erschienenen Routledge Handbook of Translation Technology and Society ist es, ‚konventionelle wissenschaftliche Narrative zu hinterfragen‘ und nachhaltige, inklusive und gerechte Anwendungen von Translationstechnologien zu fördern. Was genau sind diese ‚konventionellen Narrative‘ – und wie lassen sie sich im Kontext des digitalen Zeitalters kritisch neu denken?
Bei der Hinterfragung konventioneller wissenschaftlicher Narrative geht es in erster Linie um eine kritische Haltung gegenüber einigen über Jahre hinweg etablierten Diskussionsmustern innerhalb der Translationswissenschaft. Innerhalb der translationswissenschaftlichen Diskussion stand lange Zeit der Mensch im Zentrum des übersetzenden Handelns. Die übersetzende Maschine hingegen wurde weitgehend anderen Disziplinen überlassen, insbesondere der Informatik und der natürlichen Sprachverarbeitung. Seit etwa zehn Jahren erleben wir jedoch diese – vorhin erwähnte – ‚Qualitätsrevolution‘ bei der NMÜ, wodurch die Maschine gezwungenermaßen graduell ins Zentrum translationswissenschaftlicher Forschung rückt. Wir können sie nicht länger als eigenständige – nicht nur übersetzende, sondern auch gesellschaftliche – Akteurin ignorieren. Diese neue Akteurin verändert Rollenbilder und Arbeitsprozesse in einem solch grundlegenden Maße, dass daraus für die Translationswissenschaft ein erkenntnistheoretisches Problem erwächst.
In einer Publikation mit meinem Kollegen Michael Tieber sprechen wir in diesem Zusammenhang vom ‚Elefanten im Raum‘, der lange bewusst oder unbewusst übersehen wurde.4 Wir plädieren für eine neue Herangehensweise innerhalb translationssoziologischer Forschung, die die Maschine ausdrücklich mitdenkt, also im Sinne einer posthumanen Soziologie der Translationstechnologie. Dies erfordert eine stärkere Einbindung von Technikphilosophie, Techniksoziologie, der Science and Technology Studies, aber auch des posthumanistischen Denkens. Zentral ist dabei auch die Forderung, Übersetzer:innen stärker in Design und Entwicklung der für sie bestimmten Technologien einzubeziehen. Dies soll nach dem Prinzip „Nothing about us without us“ geschehen, welches etwa aus der Gehörlosengemeinschaft bekannt ist. 5 Es wird bei der Entwicklung digitaler Avatare für das Gebärdensprachdolmetschen eingefordert und lässt sich unmittelbar auf andere translationstechnologische Kontexte übertragen.
Sie betonen, dass Übersetzungstechnologien nicht neutral sind. Worin liegen die ideologischen und politischen Dimensionen maschineller Übersetzung?
Maschinelle Übersetzung ist tief in die politische Ökonomie der globalen Sprachindustrie eingebettet. Die NMÜ wurde unter neoliberalen Vorzeichen eingeführt, mit dem Ziel, Produktivität zu steigern, Kosten zu senken und Übersetzungsarbeit stärker zu standardisieren.6 Plattformbasierte Workflows indes zerlegen Übersetzen in kleine Einheiten, die algorithmisch überwacht und quasi über Stücklöhne vergütet werden. Beim sogenannten Translation-Crowdsourcing arbeiten viele Übersetzer:innen gleichzeitig an meist längeren Texten. Diese Entwicklung führt zur Entwertung menschlicher Expertise und somit zu weiterer Prekarisierung.
Vor diesem Hintergrund werden die gegenwärtigen Produktionsverhältnisse zunehmend von immer weniger und immer finanzstärkeren Akteur:innen kontrolliert. Auch die Sprach- und Übersetzungsindustrie ist davon betroffen. Der globale Sprach- und Übersetzungsmarkt wird für 2025 auf über 70 Milliarden US-Dollar geschätzt, bei einem prognostizierten jährlichen Wachstum von mehr als fünf Prozent bis 2029.7 Branchenanalysen zeigen auch, dass die meisten der umsatzstärksten Anbieter:innen im anglophonen Raum angesiedelt sind.8 Diese strukturelle Dominanz ist bislang kaum Gegenstand kritischer Auseinandersetzung.
Mit dem digitalen Kapitalismus geht eine massive Konzentration von – nennen wir es mal – ‚Macht über die technologischen Infrastrukturen‘ einher. Wenige Tech-Konzerne und staatlich geförderte Akteur:innen kontrollieren nämlich die Daten, die Rechenleistung, die Plattformen und somit auch die Arbeits- und Produktionsstandards. Wer diese Infrastrukturen besitzt, entscheidet über Preise und Zugänge, und auch darüber, was als ‚korrekte‘ oder ‚akzeptable‘ Sprache gilt. Dazu gehören auch algorithmische Auswahlmechanismen (wer darf überhaupt übersetzen) und rigorose Qualitätsmetriken. NMÜ und generative KI werden damit zu Gehilfinnen einer umfassenden Automatisierung – gar einer Governance – sprachlicher Kommunikation.
Die infrastrukturelle Vormachtstellung hat auch eine ideologische Dimension. Die den generativen KI-Systemen zugrundeliegenden Sprachmodelle sind nicht wertfrei, sondern tragen die ideologischen Prägungen ihrer Entwickler:innen und ihrer Trainingsdaten in sich. Hier spiegeln sich dominante Weltbilder und gesellschaftliche Annahmen. Westlich geprägte Wissensordnungen, Geschlechterstereotype oder gar rassistische Zuschreibungen werden nicht nur reproduziert, sondern durch statistische Verallgemeinerung oft noch verstärkt. Beim automatischen Übersetzen wird somit aus einem ‚General Practitioner‘ meist ein männlicher ‚Arzt‘, obwohl eigentlich eine ‚Ärztin‘ gemeint ist.
Eine Folge dieser ideologischen Prägungen ist, dass maschinelle Übersetzung derzeit noch bestehende globale Sprachhierarchien verstärkt. Datenreiche Sprachen wie Englisch, Chinesisch oder Spanisch fungieren als Leit- und Normsprachen, während zahlenmäßig kleinere Sprachen marginalisiert bleiben. Diese Machtungleichgewichte reproduzieren neokoloniale Muster, die möglicherweise nun auch die Sprachenvielfalt – neben der biologischen ist ja auch die kulturelle Diversität ein zu schützender Reichtum – weiter unterminieren.
Auf einer eher epistemischen Ebene werden durch immer mehr synthetische Sprach- und Übersetzungsdaten die Reichtümer kreativer natürlicher Sprache unterschlagen, wie Mehrdeutigkeit, bildhafte Sprache oder Ironie. In diesem Kontext ist von einer „artificially impoverished language“ in Form einer „machine translationese“ die Rede, also von einer künstlich verarmten Sprachform, die zwar effizient erscheinen mag, epistemisch jedoch hochproblematisch ist.9 Dadurch werden Sprache und Übersetzen zunehmend als technischer Service und als glatte Informationsübertragung abgewertet. Übersetzen ist aber eine zutiefst kontextabhängige und interpretative Praxis. All das zeigt: Maschinelle Übersetzung ist keineswegs neutral. NMÜ und generative KI- Systeme übersetzen nicht einfach nur Texte, sondern konsolidieren dominante Wissensordnungen, Machtverhältnisse und Gesellschaftsmodelle.
Der Begriff des data colonialism beschreibt dieses Phänomen genauer. Es geht darum, wie digitale Infrastrukturen und Konzerne Daten zu einer globalen Ressource machen – oft auf Kosten sprachlicher und kultureller Vielfalt. Wie lässt sich diese Form des digitalen Kapitalismus aus der Perspektive der Translationwissenschaft kritisch betrachten?
Der Begriff des digitalen Kapitalismus eignet sich gut zur Analyse der Sprachindustrie, da Übersetzungs- und Sprachdienstleistungen heute fast vollständig im digitalen Raum organisiert sind, zunehmend auch Dolmetschleistungen eingeschlossen. Globale Plattformen schöpfen in diesem Raum erheblichen Mehrwert ab, indem sie weltweit Übersetzer:innen zu niedrigen Stücklöhnen beschäftigen, während die von ihnen produzierten wertvollen Sprachdaten bei den Plattformen verbleiben und dort weiterverwertet werden. Gökhan Fırat spricht in diesem Zusammenhang von einer schleichenden Uberisation der Übersetzungsbranche.10 Im digitalen Kapitalismus fungieren Daten als zentrale Ressource, als das sprichwörtliche ‚neue Gold‘.
Der sogenannte data colonialism wird besonders dort sichtbar, wo große KI-Modelle auf Basis massenhaft extrahierter Texte trainiert werden. Dabei geht es jedoch nicht nur um Datenquantität, sondern auch um Datenqualität. Hegemoniale Sprachen sind im digitalen Raum quantitativ überrepräsentiert, weshalb ihre Weltbilder und Werthaltungen auch in qualitativer Hinsicht die Trainingsdaten prägen. Vor diesem Hintergrund werden bestimmte Wissensordnungen – derzeit vor allem westlich-christliche Wertvorstellungen – weiter globalisiert, während andere unsichtbar bleiben. Verantwortlich für den data colonialism sind gegenwärtig vor allem die davon profitierenden großen KI-Unternehmen. Bezeichnend ist etwa, dass wissenschaftliche Verlage wie Routledge ihre gesamten Kataloge zunehmend an KI-Unternehmen weitergeben.
In letzter Konsequenz – und wie ich in meinem Beitrag zum digitalen Kapitalismus im Handbook of Translation Technology and Society argumentiere – zielt die Logik des data colonialism darauf ab, menschliche Kommunikation, Sprache und Übersetzen zu entnaturalisieren. 11 Natürliche Sprachen und Ausdrucksweisen werden sprichwörtlich entwurzelt und dem Kreislauf der algorithmischen Verwertung einverleibt. Anders ausgedrückt handelt es sich bei vielen Verfahren zur Erstellung großer Sprachmodelle schlicht und einfach um systematischen Datenraub: Texte werden ohne Zustimmung der Urheber:innen oder Autor:innen abgegriffen und proprietären Modellen zugeführt. Die professionelle Translation ist somit integraler Bestandteil der extraktiven Logik des digitalen Kapitalismus.
Diese industriell-extraktive Logik besitzt natürlich auch eine materielle, ökologische Dimension. Umweltfragen in der Entwicklung und Bewertung digitaler Translationstechnologien wurden bislang systematisch marginalisiert, obwohl ihre ökologischen Folgen beträchtlich sind.12 KI-Applikationen und digitale Übersetzungstechnologien beruhen auf energie- und ressourcenintensiven Infrastrukturen, deren ökologischer Fußabdruck erheblich ist und von hohem Ressourcenbedarf sowie massivem Stromverbrauch geprägt wird. Die weitgehend unsichtbare Externalisierung all dieser Umweltkosten folgt dabei derselben Logik wie die Externalisierung menschlicher Arbeit und sprachlicher Expertise im digitalen Kapitalismus.
In den Beiträgen Ihres Handbuchs spielen Fallstudien eine wichtige Rolle. Was zeigen diese konkreten Untersuchungen über den tatsächlichen Einsatz von Übersetzungstechnologien und den Wandel der Arbeitsrealität von Übersetzer:innen?
Das Handbuch ist – soweit wir das überblicken – das erste seiner Art, das sich systematisch und kritisch mit der gesellschaftlichen Relevanz von Translationstechnologien auseinandersetzt. Rückblickend hätte man im Titel vielleicht präziser von Übersetzungstechnologien sprechen können, da Dolmetschtechnologien nicht behandelt werden; für diesen Bereich liegt inzwischen ein eigenes Handbuch vor (The Routledge Handbook of Interpreting, Technology and AI). Sollte es zu einer zweiten Auflage kommen, würde ich den Begriff ‚AI‘ allerdings in den Titel aufnehmen, da KI gegenwärtig und auf absehbare Zeit die prägende Technologie ist.
Wichtig ist klarzustellen, dass es in diesem Band nicht primär darum geht, einzelne empirische Fallstudien zu präsentieren, aus denen sich unmittelbar soziologisch ‚harte‘ Ergebnisse ableiten ließen. Unser Ziel war vielmehr, Theorieansätze und methodische Zugänge aus den Kultur- und Sozialwissenschaften für die soziotechnische Translationsforschung fruchtbar zu machen. Viele Beiträge zeigen weniger mikroskopische Einzelfälle als vielmehr großflächige systemische, kulturelle und sozioökonomische Wirkungen. Die Translationswissenschaft hat sich mit diesen Wirkungen bislang nur unzureichend auseinandergesetzt.
In der Einleitung plädieren wir ausdrücklich für die Entwicklung einer Soziologie der Translationstechnologie. Denn Übersetzungstechnologien verändern unsere Wahrnehmung sprachübergreifender Kommunikation und unsere Textpraxis massiv, auch im Hinblick darauf, was Übersetzen überhaupt bedeutet, also in epistemologischer Hinsicht. Im Zuge dieser Technologisierung und Automatisierung der transkulturellen Kommunikation wird das Übersetzen zunehmend auf klar messbare, technisch optimierbare und friktionsfreie Aspekte reduziert, während soziokulturelle Einbettung, ethische Verantwortlichkeit und emotionale Intelligenz systematisch ausgeblendet werden.
In einem der Beiträge zeigt Claire Larsonneur exemplarisch, dass natürliche Sprache und ihre Einbettung in kulturelle, historische, kontextuelle und emotionale Zusammenhänge von den Entwickler:innen solcher Technologien seit jeher weitgehend ignoriert wurden. Sie kommt zu dem Schluss:
KI-Technologien mögen bei der sofortigen Erstellung von Übersetzungen sehr effizient erscheinen. Ihr Versprechen, zur Verbesserung der menschlichen Lebensbedingungen beizutragen, können sie jedoch nur dann einlösen, wenn sie in einem gleichberechtigten und fairen digitalen Ökosystem entwickelt und eingesetzt werden – unter regulierten und kontrollierten Rahmenbedingungen, das auf einer Vielfalt von Akteur:innen und Stakeholdern beruht und nicht auf einer oligopolistischen Marktstruktur. 13
Zu einem ähnlichen Befund gelangen mehrere Beiträge des Bandes. Zukünftige Arbeiten könnten an die vielfältigen gesellschaftlichen und kulturtheoretischen Zugänge zur Translationstechnologie anknüpfen, stärker fallstudienorientiert vorgehen und zugleich deutlicher herausarbeiten, welche Tätigkeiten im Übersetzen zunehmend wegfallen und was an kreativer, interpretativer Arbeit bleibt.
Unter dem Strich aber bleibt die alte Rechnung: Solange sich die zugrunde liegenden, stark profitorientierten Strukturen nicht grundlegend verändern, wird es keine nachhaltigen Translationstechnologien geben. Diese Technologien sind längst auch tief in Alltags- und Arbeitspraktiken jenseits des professionellen Übersetzens integriert, etwa in sozialen Medien, auf Webseiten staatlicher Einrichtungen, im Gesundheitswesen oder in juristischen, wissenschaftlichen sowie innerbetrieblichen Kommunikationsprozessen. Paradoxerweise trägt gerade diese Allgegenwart zur weiteren Unsichtbarmachung des Übersetzens bei.
Maschinelle Übersetzung dringt inzwischen auch in den literarischen Bereich vor, wo kulturelles Verstehen und Interpretation eine zentrale Rolle spielen. Können Maschinen solche Qualitäten überhaupt erfassen – oder verändert sich auch hier das Verständnis von ‚Übersetzen‘ grundlegend?
Das literarische Übersetzen gilt vielen nach wie vor als eine letzte Bastion der humanen Übersetzung. Gleichzeitig drängt die maschinelle Übersetzung inzwischen verstärkt auch in den literarischen Bereich vor. Es gibt seit jeher Stimmen, die Literatur grundsätzlich für unübersetzbar halten – und das nicht ohne Grund. Literatur entsteht in und durch historisch gewachsene, kulturell tief verwurzelte Sprachen; sie lebt von Imagination, Mehrdeutigkeit, Rhythmus, Stilbrüchen und Idiosynkrasien. Ein literarischer Text eröffnet keine eindeutig zu entschlüsselnden Bedeutungen, sondern erschließt ganze, oft nur schwer zugängliche Bedeutungsfelder und ‑horizonte. Übersetzen Sie einmal ein Dada-Gedicht. Der Interpretationsspielraum in der Literatur ist gleichzeitig gigantisch und minimal, je nachdem, wie man liest und wer letztlich die Macht hat, über die Übersetzung zu entscheiden.
Zur literarischen NMÜ gibt es eine wachsende Zahl spannender Studien.14 Oft werden dabei menschliche Übersetzungen mit NMÜ oder LLM-Übersetzungen verglichen, mit teils widersprüchlichen Befunden: Mal soll generative KI besser sein als DeepL, mal Google Translate besser als DeepL oder umgekehrt. Der Mensch schneidet meist immer noch am besten ab. Doch ist das wirklich die entscheidende Frage? Vielleicht sollten wir weniger darüber diskutieren, wer oder was ‚besser übersetzt‘, sondern ob die gegenwärtige gesellschaftliche Entwicklung tatsächlich alternativlos ist. Sobald wir die Machtfrage stellen, wird der Blick klarer: Wer profitiert, wer verliert, und wer definiert überhaupt die Konturen von Kommunikation, Sprache und Übersetzen?
Die meisten halbwegs mitdenkenden Zeitgenossen erahnen zumindest, dass NMÜ und LLMs bis heute nicht in der Lage sind, literarische Werke ohne grundlegendes Post-Editing zu übertragen. Und doch erleben wir seit einiger Zeit, dass Verlage wie etwa das Unternehmen Nuanxed ganze Bücher automatisiert übersetzen und damit dann das Internet überschwemmen.15 Auf einschlägigen Verkaufsplattformen findet sich bereits eine Flut an KI-produzierten Büchern und Übersetzungen, wobei dies häufig nicht einmal explizit ausgewiesen wird. In den heutigen globalisierten und digitalisierten Märkten ist alles miteinander verzahnt. Genau deshalb lässt sich hier nur global kritisch argumentieren, nicht kleinteilig oder isoliert. Tun wir das nicht, verkommt akademische Arbeit zu einer bloßen Arbeitsbeschaffungsmaßnahme.
Und was die Bildungseinrichtungen betrifft – wenn sich der derzeitige Anpassungsdruck an den Universitäten fortsetzt, werden sich auch translationswissenschaftliche Institute weiter auseinanderdividieren: in jene, die vom Neoliberalismus überrollt werden, proprietäre Software ins Zentrum der Ausbildung stellen und Studierende zu unkritischen Rädchen einer globalen Ausbeutungsmaschinerie formen, und in wenige verbleibende kritische Orte, die auf Open-Source-Software setzen und Übersetzen als kulturelle, politische und ethische Praxis begreifen.16 Letztere laufen Gefahr, weniger Studierende anzuziehen, weil sie keinen vermeintlich sicheren, marktkonformen Weg in ein angepasstes Berufsleben versprechen.
Wie könnte eine Ethik der digitalen Translation aussehen, die wirtschaftliche Realitäten anerkennt, zugleich aber kreative und humanistische Werte schützt?
Ich bin zunehmend skeptisch, ob wir mit dem bloßen Ruf nach ‚Ethik‘ noch weit kommen. Was wir derzeit erleben, ist weniger ein ethisches Defizit im engeren Sinne als vielmehr ein systemisches. Solange die grundlegenden ideologischen, sozioökonomischen und technologischen Eckpfeiler unverändert bleiben, wird auch die beste Ethik zur wohlmeinenden Begleitmusik eines extraktiven und ausbeuterischen Systems, das sich ungebremst selbst reproduziert.
Dass diese Fragen längst keine rein akademischen mehr sind, zeigen offene Briefe und Stellungnahmen von Übersetzer:innen und ihren Verbänden. Organisationen wie der European Council of Literary Translators’ Associations (CEATL), die Société française des traducteurs (SFT) oder die Initiative En Chair et en Os (ECEO), aber auch berufsständische Verbände wie der Bundesverband der Dolmetscher und Übersetzer (BDÜ) und der österreichische Verband UNIVERSITAS Austria, kritisieren die EU-KI-Verordnung dafür, kulturelle und professionelle Übersetzungsarbeit nur unzureichend zu schützen. Gefordert werden insbesondere Transparenz über Trainingsdaten, wirksame urheberrechtliche Absicherungen und klar definierte rechtliche Rahmenbedingungen.
Derzeit lese ich das Buch Against the Machine von Paul Kingsnorth, das meinen eigenen Ansatz in vielerlei Hinsicht spiegelt. Kingsnorth knüpft an eine lange Tradition kulturkritischen Denkens an.17 Schon Gustav Landauer sprach vor mehr als 100 Jahren davon, dass wir uns von der Erde, von den Menschen, vom Geist und letztlich von uns selbst entfremdet haben, denn wir bräuchten einen „Wiederanschluß an die Natur, [eine] Wiedererfüllung mit Geist, [und eine] Wiedergewinnung der Beziehung“.18 Genau diese verlorenen Beziehungen müssten wir nicht nur reparieren, sondern aktiv zurückerobern. Kingsnorth bringt das in einem zentralen Passus eindrücklich auf den Punkt:
Das Gegenmittel besteht darin, zu diesen Grundlagen vorzudringen und mit der Arbeit der Reparatur zu beginnen. Wir werden lernen müssen, wieder erwachsen zu sein: wieder Boden unter die Füße zu bekommen, Familien und Gemeinschaften neu aufzubauen, die Bedeutung von Hingabe und Verpflichtung, von Grenzen und Sehnsucht erneut zu verstehen. Kurz gesagt: Wir werden erwachsen werden müssen. Das ist eine lange, mühsame Arbeit – eine Arbeit über Generationen hinweg. Es ist Arbeit an den Mythen. Wir wollen eigentlich gar nicht anfangen, und wir wissen auch nicht wirklich, wie. Welches Kind will schon erwachsen werden? Aber es gibt keinen anderen Weg; kein anderer Pfad wird uns nach Hause führen.19
Vor diesem Hintergrund wirken viele der gängigen ethischen Appelle – auch im Bereich der digitalen Translation – unglaublich leer. Wir sind zu tief verstrickt in einen Strudel aus instrumenteller Vernunft, Naturbeherrschung und einem nahezu religiösen Fortschritts- und Technikglauben. Deshalb reicht eine reformistische Ethik nicht aus. Was es braucht, ist eine radikale Herangehensweise im eigentlichen Sinne des Wortes: radikal im Sinne von radix, also von der Wurzel her gedacht. Unsere westliche Zivilisation befindet sich in einem Zustand des fortgeschrittenen Werteverfalls. Wenn wir nicht bereit sind, grundlegend umzudenken, droht kein sanfter Übergang, sondern ein Bruch. Ich kann mich unzählige Male für Nachhaltigkeit, faire Arbeitsbedingungen oder ressourcenschonende Technologien einsetzen – solange die dominanten Akteur:innen der Weltwirtschaft ausschließlich ihren eigenen Interessen folgen, bleibt all das wirkungslos.
Eine Ethik der digitalen Translation, die diesen Namen verdient, kann daher nicht bei Leitlinien, Aufrufen, Manifesten oder best practices stehen bleiben. Sie müsste Teil eines umfassenderen kulturellen Umdenkens sein: einer Rückbesinnung auf Begrenzung, Verantwortung, Beziehung und Sinn. Nur eine solche Rückkehr zu den von Kingsnorth benannten Werten hätte überhaupt das Potenzial, nicht nur die menschliche Kommunikation, sondern auch unsere gesellschaftlichen Grundlagen im Einklang mit der Natur vor dem vollständigen Untergang zu bewahren.
Was überwiegt für Sie mit Blick auf die Zukunft des Übersetzens: Optimismus oder Skepsis? Welche Rolle wird – oder sollte – der Mensch in einem zunehmend KI-geprägten Sprachökosystem spielen?
Ich könnte jetzt die üblichen Floskeln nachplappern, die den Diskurs seit Jahren dominieren: Übersetzer:innen müssten sich intensiver mit der Maschine arrangieren, um eine immer bessere Mensch-Maschine-Interaktion zu erreichen, Effizienz steigern, Synergien nutzen, blablabla … Das ist doch – nennen wir es mal – Anpassungssprache. Die leistet vor allem eines: Sie entlastet uns davon, klar Position zu beziehen und ignoriert damit die bestehenden Machtverhältnisse. Genau das greift viel zu kurz. Wir haben eine Verpflichtung, da viel systemkritischer zu agieren, aber wir tun es nicht. Wie dem auch sei, wie schon in meiner Antwort auf die vorige Frage angedeutet, brauchen wir zunächst mal eine sprichwörtliche Besinnung. Ohne diese kommen wir keinen Schritt weiter.
Nehmen wir den oft bemühten Begriff des Sprachökosystems. Häufig wird heute auch von einem ‚digitalen Ökosystem‘ gesprochen. Klingt ja schön modern, bei näherem Hinschauen ist das aber ein ganz schiefes Bild. Ein digitales Ökosystem mit ‚Wurzeln‘ ist doch ein Oxymoron. Ein Sprachökosystem hingegen ist real, es ist historisch gewachsen und deshalb fragil und von Machtverhältnissen durchzogen. Wie beim biologischen Ökosystem geht es um Balance, um Vielfalt und um Grenzen. In der neuen digitalen Hegemonie gibt es keine Balance, keine Vielfalt, und natürlich gegebene Grenzen werden permanent überschritten. Uns Menschen muss es einfach um einen gesunden Machtrealismus gehen, um die nüchterne Erkenntnis, dass Technologie niemals neutral ist, sondern immer Ausdruck von Macht. Und derzeit haben wir es mit einer beispiellosen power without responsibility zu tun.
Ohne eine Rückkehr zu den eigentlichen Wurzeln – und damit meine ich keine genetisch modifizierten oder künstlich gezüchteten Ersatzwurzeln – bleiben wir Don Quijotes, die mit der Lanze auf Windmühlen losgehen. So ändert sich grundsätzlich nichts. Dieses System, in unserem Zusammenhang der digitale Kapitalismus, ist nicht reformierbar, auch wenn viele das hoffen mögen. Ohne eine radikale Einhegung des menschlichen Willens zur Macht und des Triebs zur Gier werden wir uns auf immer mehr Ausbeutung einstellen müssen. Und auch auf immer mehr synthetische Sprache und synthetische Übersetzungen. Ein wirklicher System- und Mentalitätswechsel wäre nötig, selbst wenn er utopisch erscheinen mag. Und selbst wenn er käme, würde eine solche Rückbesinnung Jahrzehnte, wenn nicht länger, dauern.
Was mich dabei besonders beunruhigt, ist die fortschreitende Entzauberung von Verantwortung. Menschen kann man widersprechen, man kann sie kritisieren, zur Rechenschaft ziehen. Maschinen können (bislang) nicht widersprechen. Und das darf auch niemals so sein. Ein letztes Fünkchen Hoffnung liegt vielleicht noch im universitären Bereich, etwa in Open-Source-Initiativen. Aber selbst dort greift der neoliberale Arm längst zu, und er wird von Jahr zu Jahr stärker.
Am Ende bleibt eine unbequeme Wahrheit, die in der Translationswissenschaft oft ausgeblendet wird: Technologie ist immer genauso gut oder schlecht wie diejenigen, die über sie verfügen und Macht über sie ausüben. Aber genau das will man häufig lieber nicht so genau wissen, denn diese Erkenntnis führt uns unweigerlich zurück in die Logik der Macht und kann gerade deshalb auch gefährlich werden.

Univ.-Prof. Dr. phil. Stefan Baumgarten leitet seit März 2021 das Institut für Translationswissenschaft der Universität Graz. Seine Forschungsschwerpunkte liegen in der Translationstechnologie, dem digitalen Wandel und ethischen Fragen sowie in transkultureller Kommunikation und posthumanistischem Denken. Zuvor arbeitete er intensiv zu Translation und Kapitalismuskritik, dokumentiert u. a. in Veröffentlichungen wie Translation in Times of Technocapitalism (2017), Translation and Global Spaces of Power (2018) und Translation and Hegemonic Knowledge under Advanced Capitalism (2017). Derzeit bereitet er mehrere Sammelbände zu Translationstechnologie, Posthumanismus und kritischer Theorie vor, die 2025 und 2026 erscheinen werden.
Kontakt: stefan.baumgarten@uni-graz.at

- Walter, Katharina und Marco Agnetta (Hrsg.) (2025) Applying Artificial Intelligence in Translation. Possibilities, Processes and Phenomena. London und New York: Routledge.
- He, Sui (2024) ‚Prompting ChatGPT for Translation: A Comparative Analysis of Translation Brief and Persona Prompts‘, In Proceedings of the 25th Annual Conference of the European Association for Machine Translation (Volume 1). Sheffield, UK. European Association for Machine Translation (EAMT), S. 316–326.
- Krüger, Ralph und Janina Hackenbuchner (2022) ‚Outline of a Didactic Framework for Combined Data Literacy and Machine Translation Literacy Teaching‘, in Current Trends in Translation Teaching and Learning E., S. 375–432.
- Tieber, Michael und Stefan Baumgarten (2024) ‚Mean Machines? Sociotechnical ®evolution and Human Labour in the Translation and Interpreting Industry‘, Perspectives: Studies in Translation Theory and Practice 32/3, S. 379–390.; angelehnt an Rozmysłowicz, Tomasz (2019) ‚Die Geschichtlichkeit der Translation(swissenschaft). Zur paradigmatischen Relevanz der maschinellen Übersetzung‘, Chronotopos 2/1, S. 17–41.
- Agnetta, Marco (2025) ‚Between Empowerment and Dependency: Digital and AI-supported Tools and Media Accessibility‘, in Walter, Katharina und Marco Agnetta (Hrsg.) Applying Artificial Intelligence in Translation. Possibilities, Processes and Phenomena. London und New York: Routledge, 163–181, S. 164.
- Baumgarten Stefan (2025a) ‚Welcome to the Machine? Prolegomena zu einer kritischen Translationswissenschaft in Zeiten ungebremster Maschinisierung‘, Yearbook of Translational Hermeneutics / Jahrbuch für Übersetzungshermeneutik 5/1, S. 59–85.
- Nimdzi (2025) The 2025 NIMDZI 100 – The Size and State of the Language Services Industry. Sandpoint: Multilingual Media.
- Nimdzi (2024) The 2024 NIMDZI 100 – The Ranking of the Largest Language Service Providers in the World. Sandpoint: Multilingual Media.
- Vanmassenhove, Eva, Dimitar Shterionov und Matthew Gwilliam (2021) ‚Machine Translationese: Effects of Algorithmic Bias on Linguistic Complexity in Machine Translation‘, in Paola Merlo, Jörg Tiedemann und Reut Tsarfaty (Hrsg.) Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, S. 2203–13.
- Fırat, Gökhan (2021) ‚Uberization of Translation. Impacts on Working Conditions‘, The Journal of Internationalization and Localization 8/1, S. 48–75.
- Baumgarten, Stefan (2025b) ‚Translation and Digital Capitalism‘, in Stefan Baumgarten und Michael Tieber (Hrsg.) The Routledge Handbook of Translation Technology and Society, London und New York: Routledge, S. 31.
- Shterionov, Dimitar, Vanmassenhove, Eva, Taivalkoski-Shilov, Kristiina und Elena Murgolo (2025) ‚Environmental Considerations for Digital Translation Technology‘, in Stefan Baumgarten und Michael Tieber (Hrsg.) The Routledge Handbook of Translation Technology and Society, London und New York: Routledge, S. 329–342.
- Larsonneur, Claire (2025) ‚Representations of Language and Translation in Artificial Intelligence‘, in Stefan Baumgarten und Michael Tieber (Hrsg.) The Routledge Handbook of Translation Technology and Society, London und New York: Routledge, S. 62, übersetzt von Stefan Baumgarten.
- Rothwell, Andrew, Way, Andy und Roy Youdale (Hrsg.) (2024) Computer-Assisted Literary Translation. London und New York: Routledge.
- Li, Anne (2025) ‚Are AI Models Advanced enough to Translate Literature? The Debate is Roiling Publishing‘, The Markup. https://themarkup.org/artificial-intelligence/2025/04/02/are-ai-models-advanced-enough-to-translate-literature-the-debate-is-roiling-publishing?utm_source=chatgpt.com.
- Martín-Mor, Adrià (2025) ‚Power and Technology in Translator Training Institutions‘, in Stefan Baumgarten und Michael Tieber (Hrsg.) The Routledge Handbook of Translation Technology and Society, London und New York: Routledge, S. 234–245.
- Kingsnorth, Paul (2025) Against the Machine. On the Unmaking of Humanity. New York: Penguin Random House.
- Landauer, Gustav (1911/1967) Aufruf zum Sozialismus, Frankfurt am Main: Europäische Verlagsanstalt, S. 178; siehe auch Baumgarten 2025b: S. 32
- Kingsnorth, 2025: S. 147, übersetzt von Stefan Baumgarten.
