„Die Sys­te­me wei­sen den Men­schen bestimm­te Rol­len zu, nicht umgekehrt“

Die Übersetzerin Claudia Hamm ist Herausgeberin des Sammelbands „Automatensprache“, der die Auswirkungen von Künstlicher Intelligenz auf Sprache und Menschsein beleuchtet. Ein Gespräch über ungleiche Machtverhältnisse, fehlerhafte Systeme und die Zukunft des Übersetzens. Interview:

Die Übersetzerin Claudia Hamm, Foto: Michael Donath.

Die im Som­mer erschie­ne­ne und von dir her­aus­ge­ge­be­ne Akzen­te-Aus­ga­be mit dem Titel Auto­ma­ten­spra­che beschäf­tigt sich mit Künst­li­cher Intel­li­genz und Spra­che. Du fragst dar­in unter ande­rem: „Was führt uns dazu, die Auto­ma­ti­sie­rung des Men­schen nicht mehr als Dys­to­pie, son­dern als ver­hei­ßungs­vol­le Zukunft anzu­se­hen?“ Tat­säch­lich hat­te ich nach dem Lesen des Ban­des den Ein­druck, dass wir ent­setz­ter dar­über sein soll­ten, wie schnell gene­ra­ti­ve KI in unse­re Gesell­schaft ein­dringt und droht, mensch­li­che Tätig­kei­ten wie das Über­set­zen von Lite­ra­tur zu erset­zen. Die Reak­tio­nen aus der Lite­ra­tur­bran­che wir­ken auf mich aber ins­ge­samt recht zöger­lich und abwar­tend, vor allem auf Ver­lags­sei­te. Wor­an liegt das?

Clau­dia Hamm: Die Fra­ge nach dem Grund ist hoch­span­nend, und ich stel­le sie mir auch immer wie­der. Ich habe ver­schie­de­ne Ver­mu­tun­gen. Die ers­te ist: Wir wis­sen zu wenig über die Hin­ter­grün­de. Über die Geschich­te die­ser Tech­nik, die ihren Ursprung in mili­tä­ri­schen Inter­es­sen und Anwen­dun­gen hat und ein ganz bestimm­tes Ziel ver­folgt: die Nach­bil­dung des mensch­li­chen Gehirns und des Men­schen inklu­si­ve sei­ner emo­tio­na­len Aus­drucks­for­men – das heißt, ein Ersatz soll kre­iert wer­den, kein Werkzeug. 

Dann feh­len uns viel­leicht Infor­ma­tio­nen über die Geschäfts­mo­del­le der Anbie­ter von Auto­ma­ten­spra­che, die ja in Schat­ten­bi­blio­the­ken im Inter­net gezielt urhe­ber­recht­lich geschütz­te Tex­te plün­dern, aber auch wahl­los „das gesam­te www“ zusam­men­ge­fegt haben inklu­si­ve pri­va­ter Emails und für ande­re Zwe­cke ver­fass­te Tex­te. Es fehlt uns an Wis­sen um die trans­hu­ma­nis­ti­schen Zukunfts­vi­sio­nen der Akteu­re, die jede gesell­schaft­li­che Ver­ant­wor­tung aus­la­gern und die Kos­ten der All­ge­mein­heit über­las­sen, wäh­rend sie die Gewin­ne ein­strei­chen, um die Dis­rup­tio­nen, die bereits in unse­rer Bran­che statt­fin­den, um die mensch­li­che Arbeit, die in den Sys­te­men steckt, denn jeder Nut­zer von Gra­tis­ver­sio­nen wird zum kos­ten­lo­sen Mitarbeiter. 

Ins­ge­samt sehen wir viel­leicht zu wenig, in wel­che Abhän­gig­keit von Tech-Pro­duk­ten wir gera­de getrie­ben wer­den, die sich in die mensch­li­chen Bezie­hun­gen drän­gen, die beim Über­set­zen und Bücher­ma­chen, aber auch in klei­nen und gro­ßen Gemein­schaf­ten gepflegt wer­den. Man spricht auch von einem „Lock-in-Effekt“: Erst wird uns eine Tech­nik als unaus­weich­lich ver­kauft, damit wir sie in unse­re Zusam­men­hän­ge ein­bin­den, und dann sol­len wir sie bezah­len. Und auf dem Weg ver­ler­nen, ohne sie aus­zu­kom­men. Wir wis­sen auch zu wenig über die öko­lo­gi­schen Kos­ten Bescheid, eigent­lich sind die­se ein Tot­schlag­ar­gu­ment, denn der Ressourcen‑, Was­ser- und Ener­gie­ver­brauch für den Ein­satz von gene­ra­ti­ver KI ist so unglaub­lich hoch, dass wir uns die Sys­te­me allein aus die­sem Grund gar nicht leis­ten kön­nen. Aus dem Bedürf­nis, Hin­ter­grün­de auf­zu­zei­gen, ent­springt jeden­falls der auf­klä­re­ri­sche Impuls, der vie­len Tex­ten in Auto­ma­ten­spra­che eigen ist. 

Begeg­nen wir den rasan­ten Ent­wick­lun­gen von KI also zu naiv?

Wir haben uns dar­an gewöhnt, dass wir alles, was im Inter­net umsonst ist, mit Daten bezah­len und zugleich dar­auf ver­trau­en, dass schon nichts Schlim­mes damit pas­siert – die meis­ten von uns ken­nen nur demo­kra­ti­sche Gesell­schafts­ord­nun­gen, die, zumin­dest theo­re­tisch, Pri­vat­rech­te schüt­zen. Vie­le betrach­ten die text­ge­ne­rie­ren­den Pro­duk­te auch ein­fach als ein wei­te­res „Tool“, das wir zu unse­ren per­sön­li­chen Zwe­cken ja so oder so ein­set­zen kön­nen, das heißt, dass wir Herr und Frau im eige­nen Haus blei­ben. Das bezweif­le ich aber, die Sys­te­me wei­sen den Men­schen bestimm­te Rol­len zu, nicht umge­kehrt. Die Tech­nik zwingt uns neue Gewohn­hei­ten, Ges­ten und Rei­ze auf und wir reagie­ren – bewusst oder unbe­wusst. Ob unse­re mecha­ni­schen Kon­troll­me­cha­nis­men der Befehls­ein­ga­be die­sen psy­cho­lo­gi­schen Kon­troll­me­cha­nis­men über­le­gen sind, dar­an habe ich mei­ne Zwei­fel, man kann das bereits an Social-Media-Effek­ten beobachten.

Doch Nut­zer und man­che Ver­la­ge tes­ten natür­lich auch, ob sich nicht doch eine „Pro­duk­ti­ons- und Gewinn­stei­ge­rung“ her­aus­schla­gen lässt, das ist ja das gro­ße Ver­spre­chen. Ver­ges­sen wird dabei, dass wir in einer gesell­schaft­li­chen Kon­stel­la­ti­on leben, in der Daten- und Kapi­tal­kon­zen­tra­ti­on auch zu einer enor­men Macht­kon­zen­tra­ti­on führt. Das Bei­spiel Elon Musk, die Mani­pu­la­ti­on „sei­ner“ Medi­en­an­ge­bo­te für poli­ti­sche Zwe­cke und inzwi­schen auch direk­ten poli­ti­schen Ambi­tio­nen sind dafür recht spre­chend: Jetzt geht es etwa dar­um, öffent­li­che Gel­der (zum Bei­spiel der NASA) ins eige­ne Geschäft (SpaceX) umzu­len­ken oder den nächs­ten Prä­si­den­ten ins Amt zu hieven. 

Die Macht­kon­zen­tra­ti­on hat sich für mich auch in der Tat­sa­che gezeigt, dass die Sprach­mo­del­le von den Ethik­kom­mis­sio­nen im Zuge der Aus­ar­bei­tung des neu­en KI-Geset­zes der EU als Hoch­ri­si­ko­tech­no­lo­gie ein­ge­stuft wur­den, das erfolg­rei­che Lob­by­ing von KI-Unter­neh­mern konn­te die­se Ein­schät­zung und folg­lich den Geset­zes­text aber aus­he­beln. Hier erwer­ben weni­ge Pri­vat­un­ter­neh­mer, die von nie­man­dem gewählt wur­den, eine unge­heu­re Macht über uns alle, eigent­lich ein Unding in einer Demo­kra­tie. Der Auto­ma­ten­spra­che-Bei­trä­ger Micha­el See­mann beschreibt sehr gut, wie Big­Tech-Kon­zer­ne etwa das Inter­net kapern: Wir sol­len in Zukunft nicht mehr auf vie­le Ein­zel­sei­ten kli­cken, son­dern nur noch auf weni­ge Chat­bots, die in der Hand von weni­gen liegen.

Was erklärt noch die ver­hal­te­ne Reak­ti­on? Dass das huma­ni­sie­ren­de Wer­be­vo­ka­bu­lar der Tech-Indus­trie ziem­lich gut ver­fängt? Dass wir wirk­lich glau­ben, Maschi­nen könn­ten dich­ten und den­ken, nur weil wir sie mys­ti­fi­zie­ren? Viel­leicht aber auch die eige­ne Bequem­lich­keit, die Hoff­nung, selbst davon pro­fi­tie­ren zu können?

Du unter­schei­dest in Dei­nem Essay „Das Blaue vom grü­nen Him­mel“ zwi­schen mensch­li­cher Spra­che und Auto­ma­ten­spra­che, wobei letz­te­re „täu­schend echt“ wir­ken kann. Wie kön­nen Leser:innen erken­nen, ob es sich um Auto­ma­ten­spra­che handelt?

Bis­lang ist der Out­put tat­säch­lich häu­fig so durch­schnitt­lich oder auch feh­ler­be­haf­tet, dass man ihn genau dar­an auch erken­nen kann. Lar­ge Lan­guage Models (LLMs) errech­nen die sta­tis­ti­sche Wahr­schein­lich­keit von Wort­fol­gen auf­grund des­sen, was in ihren Trai­nings­da­ten zu fin­den und zu kom­bi­nie­ren ist (das heißt auch: Was nicht drin ist, kann auch nicht her­aus­kom­men, zum Bei­spiel Ideen, Kon­zep­te und die Spra­che weni­ger oder gar nicht reprä­sen­tier­ter Gruppen).

Zudem schaut ein LLM in der Sprach­ent­wick­lung immer zurück, es wird zu einem bestimm­ten Zeit­punkt trai­niert und friert die in den Daten ent­hal­te­ne Spra­che prak­tisch ein: auf einen bestimm­ten Wis­sens­stand, bestimm­te Aus­drucks­wei­sen, aber auch bestimm­te Ansich­ten und Vor­ur­tei­le, die auf die­se Wei­se ver­ste­tigt und mul­ti­pli­ziert wer­den (das nennt man „Bias“ oder Ver­zer­rung). Je nach Prompt (also Befehl oder Anfra­ge), der an das Sys­tem gerich­tet wird, kann die Qua­li­tät aller­dings auch sehr hoch wer­den, ein Bei­spiel ist der Text, um den es gera­de in einem Pro­zess geht, den die New York Times gegen Ope­nAI führt, das Unter­neh­men hin­ter ChatGPT. Dort wur­de nach ent­spre­chen­den Prompts 98 % eines ori­gi­na­len, urhe­ber­recht­lich geschütz­ten Tex­tes aus­ge­ge­ben, der ist sprach­lich natür­lich sehr gut. Die Sprach­au­to­ma­ten kön­nen also auch rei­ne Kopier­ma­schi­nen sein, und dann ist die Auto­ma­ten­spra­che auch nicht mehr erkenn­bar. Sie ist zum per­fek­ten Hoch­stap­ler, zur funk­tio­nie­ren­den Attrap­pe geworden.

Ein grund­sätz­li­cher Unter­schied ist für mich: Hin­ter mensch­li­cher Spra­che steht ein Jemand, ein Spre­cher aus Fleisch und Blut mit einem bestimm­ten Anlie­gen. Der mit Spra­che eine ganz bestimm­te Infor­ma­ti­on wei­ter­ge­ben, eine Bezie­hung gestal­ten, eine Selbst­aus­sa­ge machen oder einen Appell rich­ten will, weil wir sozia­le Wesen sind und für‑, mit- und gegen­ein­an­der spre­chen. Sprach­au­to­ma­ten dage­gen haben weder einen Begriff von Wahr­heit oder Schön­heit, noch haben sie einen Grund für ihre Wortkombinationen. 

Ent­mensch­lich­te Spra­che hat kei­ne pha­ti­sche, also bezie­hungs­stif­ten­de Funk­ti­on. Und Auto­ma­ten­spra­che ist vol­ler Falsch­be­haup­tun­gen („Hal­lu­zi­na­tio­nen“). Das sieht man den Simu­la­tio­nen aber nicht an. Zumal Chat­bots ja in der Ich-Per­spek­ti­ve „spre­chen“. War­um eigent­lich? Wer soll die­ses Ich sein? Wiki­pe­dia gibt sei­ne Infor­ma­tio­nen nicht in Ich-Form aus. Dass Fir­men ihren Sprach­at­trap­pen den Anschein ver­lei­hen, Spre­chern mit einer Inten­ti­on zu ent­stam­men, ist aller­dings nicht zufäl­lig, es steckt natür­lich ein Geschäfts­in­ter­es­se dahin­ter. Und unser unstill­ba­res Bedürf­nis nach Reso­nanz, Akzep­tanz und einem Gegenüber.

Was fas­zi­niert uns Men­schen eigent­lich so dar­an, der KI dabei zuzu­schau­en, wie sie halb­ga­re Über­set­zun­gen anfer­tigt und in Sekun­den­schnel­le Bil­der kreiert?

Von­sei­ten der Nut­zer viel­leicht ein Geschwin­dig­keits­rausch? Macht? Das Gefühl, alle Müh­sal hin­ter sich las­sen zu kön­nen? Ein Schla­raf­fen­land, wo auf Knopf­druck Wün­sche erfüllt wer­den und auf mich gehört wird? Von­sei­ten der Ent­wick­ler das Gefühl, Gott zu spie­len? Etwas kre­iert zu haben, das vie­le für ein Wesen hal­ten? Bei­de Par­tei­en ver­su­chen jeden­falls zu ver­drän­gen, dass sie sich im gro­ßen Stil der Leis­tun­gen von Men­schen bedie­nen, die dafür ihre Lebens‑, Aus­bil­dungs- und Arbeits­zeit auf­ge­bracht haben – und nun selbst aktiv wer­den müs­sen, wenn sie das ablehnen.

In Auto­ma­ten­spra­che heißt es auch: „Kri­tik ist dabei nicht Angst oder Tech­nik­feind­lich­keit, son­dern die Ein­sicht, dass Tech­nik nie neu­tral ist“. Wie ist das gemeint und wel­che Kon­se­quen­zen fol­gen aus die­ser Einsicht?

Mar­shall McLuhan hat ein­mal gesagt: „Erst for­men wir die Werk­zeu­ge, und dann for­men die Werk­zeu­ge uns.“ Bes­ser kann man es kaum for­mu­lie­ren. In dem Moment, wo wir dar­auf ver­zich­ten, Ent­schei­dun­gen selbst zu tref­fen, pas­siert auch etwas mit dem, was ich „inne­re Welt“ nen­nen wür­de. Die Instanz in uns, die nicht mehr trai­niert, etwas „zur Spra­che zu brin­gen“, ver­än­dert sich. Neu­ro­wis­sen­schaft­ler spre­chen von „kogni­ti­vem Off-Loa­ding“: Hirn­area­le, die nicht mehr akti­viert wer­den, wer­den geschwächt.

Und Joseph Wei­zen­baum, ein Ber­li­ner Jude, der in den 30er Jah­ren mit sei­ner Fami­lie in die USA floh und dort ein Infor­ma­ti­ker der ers­ten Stun­de wur­de (und von dem ich ein Inter­view mit Bern­hard Pörk­sen ins Heft auf­ge­nom­men habe), erin­ner­te dar­an, dass Tech­nik immer zu bestimm­ten Zwe­cken ent­wi­ckelt wird. Die gro­ßen For­schungs­zen­tren in den USA zu KI etwa wur­den seit dem Zwei­ten Welt­krieg mas­siv aus Mit­teln des Pen­ta­gon finan­ziert. Es steht also immer jemand dahin­ter, der eige­ne Inter­es­sen ver­folgt, staat­li­che, mili­tä­ri­sche, pri­vat­wirt­schaft­li­che. Und hin­ter die­sen Inter­es­sen steht ein bestimm­tes Men­schen­bild, das uns inter­es­sie­ren soll­te. Wei­zen­baum hat die letz­ten 40 Jah­re sei­nes Infor­ma­tikerle­bens davor gewarnt, Men­schen mit Maschi­nen zu ver­wech­seln. Er hat­te mit dem Holo­caust und diver­sen Krie­gen gese­hen, wohin die Ent­mensch­li­chung des Men­schen führt. Wenn wir uns selbst mit Maschi­nen ver­glei­chen, und das pas­siert der­zeit stän­dig, ris­kie­ren wir, uns auch wie Maschi­nen zu behandeln. 

Das zeigt sich auch dar­in, wie mit soge­nann­ten Data Clea­ners oder Con­tent Mode­ra­tors umge­gan­gen wird: hoch­qua­li­fi­zier­ten Men­schen in Bil­lig­lohn­län­dern, die für etwa 1$ die Stun­de den gan­zen Tag lang die por­no­gra­fi­schen und gewalt­tä­ti­gen Inhal­te labeln, die die Maschi­ne im Roh­out­put gene­riert. Die­se Men­schen wer­den voll­stän­dig in den Dienst der Maschi­ne (und der Gewinn­ma­xi­mie­rung) gestellt. Einer davon, Mophat Oki­nyi, hat in Auto­ma­ten­spra­che sei­nen All­tag beschrie­ben, das ist bestürzend.

Lässt sich die Wei­ter­ent­wick­lung und der Ein­satz text­ge­ne­ra­ti­ver KI denn über­haupt noch ein­schrän­ken oder aufhalten?

Prin­zi­pi­ell lie­ße sie sich natür­lich schon auf­hal­ten oder ein­schrän­ken, wenn der poli­ti­sche Wil­le da wäre. Hoch­ri­si­ko­tech­no­lo­gien wur­den auch schon ganz ver­bo­ten, ein Bei­spiel ist das Klo­nen von Men­schen, dar­auf konn­te sich die inter­na­tio­na­le Gemein­schaft eini­gen. Für KI-Sys­te­me sieht es der­zeit nicht so aus, auch wenn selbst Tech-Grö­ßen in einem Mora­to­ri­um letz­tes Jahr ein Aus­set­zen der Ent­wick­lung für 6 Mona­te gefor­dert hat­ten. (Die Grün­de waren wohl auch durch­aus eigennützig.) 

Im Moment ver­sucht ein wei­te­rer Auto­ma­ten­spra­che-Bei­trä­ger, der Zür­cher Ethi­ker Peter Kirch­schlä­ger, nicht ohne Erfolgs­chan­cen, eine inter­na­tio­na­le KI-Kon­troll­be­hör­de nach dem Vor­bild der Inter­na­tio­na­len Atom­ener­gie­be­hör­de zu grün­den. Aber es gibt eine äußerst macht­vol­le Lob­by, die auch Nar­ra­ti­ve erfin­det, die bei Poli­ti­kern ver­fan­gen. Dazu braucht es „nur“ ent­spre­chen­de Kon­tak­te. Allein Micro­soft bei­spiels­wei­se hat­te im letz­ten Jahr über 100 Lob­by­kon­tak­te mit der deut­schen Regie­rung, bei 18 davon war der Bun­des­kanz­ler höchst­selbst dabei, er scheint viel Zeit zu haben. Wer darf sein Begehr sonst auf so kur­zem Weg dem Bun­des­kanz­ler vortragen? 

Denkst Du, dass KI eines Tages in der Lage sein könn­te, die krea­ti­ven und künst­le­ri­schen Ent­schei­dun­gen zu tref­fen, die not­wen­dig sind, um lite­ra­ri­sche Wer­ke authen­tisch in eine ande­re Spra­che zu übertragen?

Ich fin­de bemer­kens­wert, dass Du ein Wort benutzt, um das Beseel­te von Lite­ra­tur und Über­set­zung zu for­mu­lie­ren: Du sprichst von authen­tisch. Eine Maschi­ne kann nie authen­tisch sein. Aber sie kann durch­aus simu­lie­ren, was wir unter authen­tisch (oder leben­dig?) ver­ste­hen, ins­be­son­de­re, wenn wir unse­re Ansprü­che sen­ken. Hier müss­te man in die Dis­kus­si­on ein­stei­gen, mit wel­chen Trai­nings­da­ten (oder wel­cher Rechen­leis­tung) eine Qua­li­täts­stei­ge­rung zu erzie­len wäre. 

In der KI-Sze­ne sind vie­le der Ansicht, dass wir eine Pla­teau-Pha­se erreicht haben. Wenn schon das gan­ze Inter­net nicht aus­ge­reicht hat, um bes­se­re Auto­ma­ten­spra­che zu pro­du­zie­ren, wird noch mehr Inter­net (das ja auch zuneh­mend aus Bot­spra­che besteht) eben­falls nicht aus­rei­chen. Mög­li­cher­wei­se kön­nen aber nicht mehr, son­dern bes­se­re Daten eine Stei­ge­rung brin­gen – von daher das immense aktu­el­le Inter­es­se an hoch­qua­li­ta­ti­ven Sprach­wer­ken wie unse­ren. Sam Alt­man, der CEO von Ope­nAI, sag­te Anfang des Jah­res des­halb ganz expli­zit im Bri­ti­schen Par­la­ment, ohne urhe­ber­recht­lich geschütz­te Daten wäre ChatGPT nur ein lus­ti­ges Spiel­zeug – wes­halb er dafür plä­die­re, dass KI-Ent­wick­ler grund­sätz­lich vom Urhe­ber­recht aus­ge­nom­men werden. 

Ist der Ein­satz gene­ra­ti­ver KI denn per se schlecht? Es wäre ja durch­aus denk­bar, dass Über­set­zer, genau wie in ande­ren Bran­chen, KI für ein­zel­ne Arbeits­schrit­te effek­tiv ver­wen­den – bei­spiels­wei­se für Recher­chen, Syn­onym­vor­schlä­ge oder bei der Suche nach Fach­be­grif­fen. Wäre eine Zusam­men­ar­beit zwi­schen mensch­li­chen Über­set­ze­r­und KI bei der Über­set­zung lite­ra­ri­scher Wer­ke nicht vorstellbar?

Für all das, was Du an Ein­zel­schrit­ten nennst, gibt es ech­te Werk­zeu­ge, die nicht auf der unge­frag­ten Ver­mark­tung mensch­li­cher Leis­tung beru­hen und dazu gebaut wur­den, um Nut­zer­da­ten abzu­grei­fen, den Men­schen zu erset­zen und ihm sei­ne Urteils­kraft abzu­neh­men – und die auch einen Bruch­teil an Ener­gie ver­brau­chen, der öko­lo­gi­sche Aspekt muss unbe­dingt noch ein­mal erwähnt wer­den. Ein Aus­tausch mit ChatGPT kos­tet einen hal­ben Liter Trink­was­ser, der welt­wei­te Ener­gie­ver­brauch für KI-Anwen­dun­gen wird 2026 dem eines Lan­des wie Deutsch­land ent­spre­chen, so die Pro­gno­sen. In den letz­ten vier Jah­ren hat sich der Ener­gie­ver­brauch von Tech-Gigan­ten wie Micro­soft und Goog­le um 40–50% erhöht. Für die­sen Ener­gie­hun­ger wird jetzt wie­der neu auf Atom­ener­gie gesetzt – mit dem ent­spre­chen­den Müll­pro­blem. Fai­re und nach­hal­ti­ge KI-Pro­duk­te mit ech­tem Werk­zeug­cha­rak­ter gibt es der­zeit nicht auf dem Markt. 

Das nächs­te Ziel der KI-Ent­wick­lung ist soge­nann­te star­ke KI, d.h. Sys­te­me, die eigen­stän­dig, ohne mensch­li­che Inter­ven­ti­on wie Promp­ting, pro­blem­ori­en­tiert den­ken und han­deln kön­nen. Für die­se soll das Gehirn direkt mit Com­pu­tern ver­schal­tet wer­den, wir bräuch­ten dann auch gar kei­ne Exper­ti­se mehr im Umgang mit Sprach­mo­del­len. Die aktu­el­len Sys­te­me ver­su­chen mit der Gewin­nung von Daten und mensch­li­chen Vor­lie­ben, die Vor­aus­set­zung dafür zu schaf­fen. Und solan­ge KI auf der Kul­tur des Daten­dieb­stahls beruht – und eine Stu­die der Initia­ti­ve Urhe­ber­recht hat das nun ein­deu­tig nach­ge­wie­sen –, ist des­halb auch die Nut­zung für mich pro­ble­ma­tisch. KI ist ein geklau­tes Auto. Ich kann dar­in mit­fah­ren, sogar bis nach Paris, ich kann mir dort auch den Eif­fel­turm anschau­en, aber es bleibt ein geklau­tes Auto. 

Aber letzt­lich ist Dei­ne Fra­ge eine mora­li­sche und kei­ne berufs­prak­ti­sche. Sie kann nur von jedem indi­vi­du­ell be- und ver­ant­wor­tet wer­den. Wir wis­sen auch, dass wir in eine Kli­ma­ka­ta­stro­phe rasen und ver­zich­ten des­halb nicht alle auf das, was uns bequem erscheint. Aber zumin­dest soll­ten wir dabei die wich­tigs­ten Infor­ma­tio­nen zur Ver­fü­gung haben, und das wird von Unter­neh­mens­sei­te gera­de tun­lichst verhindert. 

Vor Kur­zem hat die Über­set­ze­rin Jani­ne Malz von einer Ver­lags­an­fra­ge auf Social Media berich­tet. Nicht ihre Exper­ti­se als Über­set­ze­rin war gefragt, son­dern sie soll­te eine KI-gene­rier­te Über­set­zung prü­fen, also ein Post-Editing durch­füh­ren. Han­delt es sich dabei um einen Ein­zel­fall oder hast Du den Ein­druck, dass die Ten­denz zu sol­chen Anfra­gen steigt? 

Ich arbei­te mit Jani­ne im Arbeits­kreis „Lite­ra­tur­über­set­zen und KI“ zusam­men, der Anfang des Jah­res auf change.org mit den drei deutsch­spra­chi­gen Lite­ra­tur­über­set­zer­ver­bän­den das „Mani­fest für mensch­li­che Spra­che“ ver­öf­fent­licht hat. Wir hat­ten uns im Vor­feld der Ver­öf­fent­li­chung ihrer Ant­wort über die Sache aus­ge­tauscht. Jani­nes Fall ist kein Ein­zel­fall, es gab und gibt auch ande­re, die für Post-Editing ange­fragt wer­den, auch wenn vie­le lite­ra­ri­sche Ver­la­ge nach ers­ten Test­läu­fen Abstand von der Arbeit mit Maschi­nen­über­set­zun­gen neh­men und sich (v. a. aus Grün­den des Urhe­ber­rechts, das die Grund­la­ge des eige­nen Geschäfts­mo­dells ist) in den Ver­trä­gen sogar zuneh­mend garan­tie­ren las­sen, dass kei­ne KI-Sys­te­me benutzt wurden. 

Die Kolleg:innen aus den eng­lisch­spra­chi­gen Län­dern berich­ten uns aber von sehr viel mehr Fäl­len in ihrem Sprach­raum (im Eng­li­schen grei­fen die Sys­te­me auch auf viel grö­ße­re „Daten“mengen zurück und „funk­tio­nie­ren“ des­halb bes­ser). Es ent­ste­hen dort auch schon Agen­tu­ren, die „Lite­ra­tur­über­set­zun­gen“ anbie­ten, die allein auf Post-Editing von maschi­nen­über­setz­ten Tex­ten beru­hen und bei denen die Posteditor:innen zum Teil nicht ein­mal die Ori­gi­nal­spra­che beherr­schen. Im audio­vi­su­el­len Bereich sind die­se Ten­den­zen auch bereits stark zu beob­ach­ten. Nicht ohne Grund war die AVTE eine der ers­ten Orga­ni­sa­tio­nen, die sich mit einem Mani­fest sehr kri­tisch zu dem The­ma geäu­ßert hat.

Jani­ne Malz hat auch einen sehr lesens­wer­ten Bei­trag mit dem Titel Der Wert mensch­li­cher Über­set­zung auf netzpolitik.org ver­öf­fent­licht. Am Ende ihres Arti­kels schreibt sie: „Was mir in der Debat­te im Nach­gang mei­nes Online-Posts auf­fiel, ist, wie vie­le offen­bar ein merk­wür­di­ges Ver­ständ­nis davon haben, was es heißt, Lite­ra­tur zu über­set­zen.“ Zeigt sich, auch bei der KI-Debat­te, nicht vor allem, dass Lite­ra­tur­über­set­zen­de zu wenig sicht­bar sind und sowohl die brei­te Öffent­lich­keit als auch offen­bar die Lite­ra­tur­bran­che kein Ver­ständ­nis davon hat, was Über­set­zen­de leisten?

Ja, auf jeden Fall. Und ich den­ke, die­se Chan­ce kön­nen und soll­ten wir nut­zen. Der Hype um gene­ra­ti­ve KI und ihre angeb­li­chen über­set­ze­ri­schen Fähig­kei­ten kann uns moti­vie­ren, unser wirk­li­ches Tun zu beschrei­ben und zu ver­tei­di­gen. Über­set­zen ist für mich auch eine Ges­te, ein Hin­über­beu­gen zu einem ande­ren, ein Ver­such zu ver­ste­hen. Und dann ein Akt, bei dem ein Mensch mit Herz, Ver­stand und Kör­per alles akti­viert, was zu einer leben­di­gen Stim­me führt, die in Abstim­mung mit dem Ori­gi­nal Klang ent­fal­tet. Das, was zwi­schen Aus­gangs- und Ziel­spra­che pas­siert, was mit unse­ren inne­ren Stim­men zu tun hat und unse­ren Beruf so beglü­ckend macht, hat mit dem Mensch­sein zu tun, mit unse­rer Kör­per­er­fah­rung, unse­rer Fra­gi­li­tät und End­lich­keit, aber auch unse­rer Fähig­keit zu Traum, Spiel und Lust, und ich zumin­dest möch­te mich gegen deren Abwer­tung zur Wehr setzen.

Einer­seits lese ich oft, dass wir in einer Zeit der Poly­kri­sen leben, die von viel Unge­wiss­heit geprägt ist. Ande­rer­seits scheint die­se Unge­wiss­heit man­che auch zu beflü­geln. Wie blickst Du in die Zukunft?

Ich möch­te kurz aus mei­nem Essay „Das Blaue vom grü­nen Him­mel“ zitie­ren. Dort fin­det sich eine Aus­sa­ge von Jür­gen Schmid­hu­ber, einem mit enor­men Sum­men an öffent­li­chen Gel­dern geför­der­ten Infor­ma­ti­ker, ehe­mals der TU Mün­chen, der (nach Eigen­dar­stel­lung) die soge­nann­ten neu­ro­na­len Netz­wer­ke so wei­ter­ent­wi­ckelt und mit Ope­nAI zusam­men­ge­ar­bei­tet hat, dass ein Sys­tem wie GPT und die Anwen­dung ChatGPT erst mög­lich wur­de. Die­ser Mann sagt: „Wir alle sind Teil eines gro­ßen Pro­zes­ses, der das ursprüng­lich doo­fe Uni­ver­sum immer kom­ple­xer und klu­ger macht und zu höhe­rer Ent­wick­lung treibt. (…) Sich selbst repli­zie­ren­de KIs wer­den sich rasch im Son­nen­sys­tem und der gan­zen Milch­stra­ße aus­brei­ten, im Zaum gehal­ten nur von der begrenz­ten Licht­ge­schwin­dig­keit, und Men­schen wer­den nicht fol­gen kön­nen. Fast alle Intel­li­genz wird bald sehr weit weg sein von der Bio­sphä­re. Und auch nicht mehr von Men­schen kon­trol­liert wer­den. Und nach ein paar zig Jahr­mil­li­ar­den wird gar das gan­ze sicht­ba­re Uni­ver­sum von Intel­li­genz durch­drun­gen sein.“ 

Das klingt irre, ist aber in die­sen Zir­keln ein ganz nor­ma­ler und all­seits geteil­ter Gedan­ke. Dar­in steckt ein Abge­sang auf den Men­schen. So wie es auch einen Abge­sang von Sam Alt­man auf unse­re sozio­öko­no­mi­schen Sys­te­me gibt, wenn er sagt, dass die meis­ten Men­schen zukünf­tig von einem Grund­ein­kom­men leben wer­den, das sei­ne Fir­ma gegen die Regis­trie­rung mit sen­si­blen Daten, näm­lich einem Iris­scan, aus­zahlt – und zwar schon jetzt, eini­ge Mil­lio­nen Men­schen haben sich bereits regis­triert. Das Regis­trier­ge­rät, ein futu­ris­ti­sches Auge, wird übri­gens in Deutsch­land produziert.

Sol­chen Leu­ten die Zukunft zu über­las­sen, davor graut mir. In die­sen trans­hu­ma­nis­ti­schen Krei­sen ist man bestän­dig dabei, der Mensch­heit das Mensch­sein abzu­spre­chen oder sie ganz auf­zu­ge­ben, das ist Tech­no­mes­sia­nis­mus. Wobei der Mes­si­as die Ent­wick­ler selbst sind. Wenn wir die­sen Leu­ten fol­gen, dann soll­ten wir kon­se­quen­ter­wei­se ab heu­te ster­ben ler­nen. Die Tat­sa­che, dass ich Auto­ma­ten­spra­che gemacht habe, steht dafür, dass ich ihnen das Feld nicht über­las­sen möch­te, die Mensch­heit sind vie­le. Und bei der Arbeit an dem Büch­lein wur­de mir auch klar, wie vie­le Orga­ni­sa­tio­nen, Ein­zel­per­so­nen und Initia­ti­ven aktiv sind, um ande­re Visio­nen von Zukunft und Tech­nik zu ent­wi­ckeln – ich habe ver­sucht, in einem Emp­feh­lungs­teil einen klei­nen Über­blick über eini­ge davon zu geben. Mit man­chen der Prot­ago­nis­ten bin ich im Aus­tausch, das sind groß­ar­ti­ge Men­schen, die einen Kom­pass haben, der nicht nur per­sön­li­che Gewinn­ma­xi­mie­rung heißt. Allein bei unse­rem Mani­fest und dem der fran­zö­si­schen Kol­le­gin­nen von enchai­re­tenos haben über 21.000 Kul­tur­schaf­fen­de unter­schrie­ben, dar­un­ter eini­ge Nobelpreisträger:innen, vie­le nam­haf­te Insti­tu­tio­nen, Autor:innen, Übersetzer:innen, Film­schaf­fen­de, Moderator:innen, Wissenschaftler:innen … Das heißt: Ich hal­te an dem Gedan­ken fest, dass wir eine Demo­kra­tie und unse­re Mensch­lich­keit zu ver­tei­di­gen haben. Und unser Schöp­fe­risch­sein, das sich immer wie­der an der Fra­ge ent­zün­det, die wir uns als Men­schen selbst sind. Schöp­fe­risch­sein bedarf der Frag­wür­dig­keit, der Deu­tung und his­to­ri­schen Ein­ord­nung, sie hat nichts mit einer Krea­ti­vi­tät zu tun, die com­pu­ta­ble, also bere­chen­bar ist.


Clau­dia Hamm

stu­dier­te Phi­lo­so­phie und Ger­ma­nis­tik. Zum Lite­ra­tur­über­set­zen fand sie über die Thea­ter­re­gie z. B. am Burg­thea­ter Wien und diver­sen Thea­tern im In- und Aus­land, das Schrei­ben von Büh­nen­tex­ten und Essays und jah­re­lan­ge Auf­ent­hal­te in Frank­reich, Ita­li­en, Mexi­ko und Chi­le. Für ihre Über­set­zun­gen – u. a. der Wer­ke von Emma­nu­el Car­rè­re, Joseph Andras, Édouard Levé, Natha­lie Quin­ta­ne – war sie 2016 für den Über­set­zer­preis der Leip­zi­ger Buch­mes­se nomi­niert und erhielt den Preis des Kul­tur­krei­ses der deut­schen Wirtschaft. 


Her­aus­ge­be­rin: Clau­dia Hamm

Auto­ma­ten­spra­che



Han­ser Akzen­te 3/23 | 1/24 ⋅ 192 Sei­ten ⋅ 24 EUR


Cover von Pol Guaschs Roman "Napalm im Herzen"

Nach der Katastrophe

In „Napalm im Her­zen“ erzählt der kata­la­ni­sche Autor Pol Guasch eine que­e­re Lie­bes­ge­schich­te in einem… 

In eige­nen Sphären

In ihrem Roman „Umlauf­bah­nen“ hin­ter­fragt Saman­tha Har­vey die mensch­li­che Exis­tenz im Uni­ver­sum – und erhielt… 
Cover von Francesca Maria Benvenutos Roman "Dieses Meer, dieses unerbitterliche Meer", im Hintergrund eine Steinmauer

Ver­lo­re­ne Kindheit

Im Debüt­ro­man der nea­po­li­ta­ni­schen Anwäl­tin Fran­ce­s­ca Maria Ben­ven­uto erzählt ein straf­fäl­li­ger Jugend­li­cher aus dem Gefängnis… 

Im Por­trait: Tho­mas Weiler

Der Über­set­zer Tho­mas Wei­ler hat ein auf­re­gen­des Jahr hin­ter sich: Für sei­ne Über­set­zung von Alhierd… 

Ita­lie­ni­sche Vielfalt

Im Rah­men des Gast­land­auf­tritts Ita­li­ens auf der Frank­fur­ter Buch­mes­se 2024 stel­len renom­mier­te Übersetzer:innen bei uns… 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert