Die im Sommer erschienene und von dir herausgegebene Akzente-Ausgabe mit dem Titel Automatensprache beschäftigt sich mit Künstlicher Intelligenz und Sprache. Du fragst darin unter anderem: „Was führt uns dazu, die Automatisierung des Menschen nicht mehr als Dystopie, sondern als verheißungsvolle Zukunft anzusehen?“ Tatsächlich hatte ich nach dem Lesen des Bandes den Eindruck, dass wir entsetzter darüber sein sollten, wie schnell generative KI in unsere Gesellschaft eindringt und droht, menschliche Tätigkeiten wie das Übersetzen von Literatur zu ersetzen. Die Reaktionen aus der Literaturbranche wirken auf mich aber insgesamt recht zögerlich und abwartend, vor allem auf Verlagsseite. Woran liegt das?
Claudia Hamm: Die Frage nach dem Grund ist hochspannend, und ich stelle sie mir auch immer wieder. Ich habe verschiedene Vermutungen. Die erste ist: Wir wissen zu wenig über die Hintergründe. Über die Geschichte dieser Technik, die ihren Ursprung in militärischen Interessen und Anwendungen hat und ein ganz bestimmtes Ziel verfolgt: die Nachbildung des menschlichen Gehirns und des Menschen inklusive seiner emotionalen Ausdrucksformen – das heißt, ein Ersatz soll kreiert werden, kein Werkzeug.
Dann fehlen uns vielleicht Informationen über die Geschäftsmodelle der Anbieter von Automatensprache, die ja in Schattenbibliotheken im Internet gezielt urheberrechtlich geschützte Texte plündern, aber auch wahllos „das gesamte www“ zusammengefegt haben inklusive privater Emails und für andere Zwecke verfasste Texte. Es fehlt uns an Wissen um die transhumanistischen Zukunftsvisionen der Akteure, die jede gesellschaftliche Verantwortung auslagern und die Kosten der Allgemeinheit überlassen, während sie die Gewinne einstreichen, um die Disruptionen, die bereits in unserer Branche stattfinden, um die menschliche Arbeit, die in den Systemen steckt, denn jeder Nutzer von Gratisversionen wird zum kostenlosen Mitarbeiter.
Insgesamt sehen wir vielleicht zu wenig, in welche Abhängigkeit von Tech-Produkten wir gerade getrieben werden, die sich in die menschlichen Beziehungen drängen, die beim Übersetzen und Büchermachen, aber auch in kleinen und großen Gemeinschaften gepflegt werden. Man spricht auch von einem „Lock-in-Effekt“: Erst wird uns eine Technik als unausweichlich verkauft, damit wir sie in unsere Zusammenhänge einbinden, und dann sollen wir sie bezahlen. Und auf dem Weg verlernen, ohne sie auszukommen. Wir wissen auch zu wenig über die ökologischen Kosten Bescheid, eigentlich sind diese ein Totschlagargument, denn der Ressourcen‑, Wasser- und Energieverbrauch für den Einsatz von generativer KI ist so unglaublich hoch, dass wir uns die Systeme allein aus diesem Grund gar nicht leisten können. Aus dem Bedürfnis, Hintergründe aufzuzeigen, entspringt jedenfalls der aufklärerische Impuls, der vielen Texten in Automatensprache eigen ist.
Begegnen wir den rasanten Entwicklungen von KI also zu naiv?
Wir haben uns daran gewöhnt, dass wir alles, was im Internet umsonst ist, mit Daten bezahlen und zugleich darauf vertrauen, dass schon nichts Schlimmes damit passiert – die meisten von uns kennen nur demokratische Gesellschaftsordnungen, die, zumindest theoretisch, Privatrechte schützen. Viele betrachten die textgenerierenden Produkte auch einfach als ein weiteres „Tool“, das wir zu unseren persönlichen Zwecken ja so oder so einsetzen können, das heißt, dass wir Herr und Frau im eigenen Haus bleiben. Das bezweifle ich aber, die Systeme weisen den Menschen bestimmte Rollen zu, nicht umgekehrt. Die Technik zwingt uns neue Gewohnheiten, Gesten und Reize auf und wir reagieren – bewusst oder unbewusst. Ob unsere mechanischen Kontrollmechanismen der Befehlseingabe diesen psychologischen Kontrollmechanismen überlegen sind, daran habe ich meine Zweifel, man kann das bereits an Social-Media-Effekten beobachten.
Doch Nutzer und manche Verlage testen natürlich auch, ob sich nicht doch eine „Produktions- und Gewinnsteigerung“ herausschlagen lässt, das ist ja das große Versprechen. Vergessen wird dabei, dass wir in einer gesellschaftlichen Konstellation leben, in der Daten- und Kapitalkonzentration auch zu einer enormen Machtkonzentration führt. Das Beispiel Elon Musk, die Manipulation „seiner“ Medienangebote für politische Zwecke und inzwischen auch direkten politischen Ambitionen sind dafür recht sprechend: Jetzt geht es etwa darum, öffentliche Gelder (zum Beispiel der NASA) ins eigene Geschäft (SpaceX) umzulenken oder den nächsten Präsidenten ins Amt zu hieven.
Die Machtkonzentration hat sich für mich auch in der Tatsache gezeigt, dass die Sprachmodelle von den Ethikkommissionen im Zuge der Ausarbeitung des neuen KI-Gesetzes der EU als Hochrisikotechnologie eingestuft wurden, das erfolgreiche Lobbying von KI-Unternehmern konnte diese Einschätzung und folglich den Gesetzestext aber aushebeln. Hier erwerben wenige Privatunternehmer, die von niemandem gewählt wurden, eine ungeheure Macht über uns alle, eigentlich ein Unding in einer Demokratie. Der Automatensprache-Beiträger Michael Seemann beschreibt sehr gut, wie BigTech-Konzerne etwa das Internet kapern: Wir sollen in Zukunft nicht mehr auf viele Einzelseiten klicken, sondern nur noch auf wenige Chatbots, die in der Hand von wenigen liegen.
Was erklärt noch die verhaltene Reaktion? Dass das humanisierende Werbevokabular der Tech-Industrie ziemlich gut verfängt? Dass wir wirklich glauben, Maschinen könnten dichten und denken, nur weil wir sie mystifizieren? Vielleicht aber auch die eigene Bequemlichkeit, die Hoffnung, selbst davon profitieren zu können?
Du unterscheidest in Deinem Essay „Das Blaue vom grünen Himmel“ zwischen menschlicher Sprache und Automatensprache, wobei letztere „täuschend echt“ wirken kann. Wie können Leser:innen erkennen, ob es sich um Automatensprache handelt?
Bislang ist der Output tatsächlich häufig so durchschnittlich oder auch fehlerbehaftet, dass man ihn genau daran auch erkennen kann. Large Language Models (LLMs) errechnen die statistische Wahrscheinlichkeit von Wortfolgen aufgrund dessen, was in ihren Trainingsdaten zu finden und zu kombinieren ist (das heißt auch: Was nicht drin ist, kann auch nicht herauskommen, zum Beispiel Ideen, Konzepte und die Sprache weniger oder gar nicht repräsentierter Gruppen).
Zudem schaut ein LLM in der Sprachentwicklung immer zurück, es wird zu einem bestimmten Zeitpunkt trainiert und friert die in den Daten enthaltene Sprache praktisch ein: auf einen bestimmten Wissensstand, bestimmte Ausdrucksweisen, aber auch bestimmte Ansichten und Vorurteile, die auf diese Weise verstetigt und multipliziert werden (das nennt man „Bias“ oder Verzerrung). Je nach Prompt (also Befehl oder Anfrage), der an das System gerichtet wird, kann die Qualität allerdings auch sehr hoch werden, ein Beispiel ist der Text, um den es gerade in einem Prozess geht, den die New York Times gegen OpenAI führt, das Unternehmen hinter ChatGPT. Dort wurde nach entsprechenden Prompts 98 % eines originalen, urheberrechtlich geschützten Textes ausgegeben, der ist sprachlich natürlich sehr gut. Die Sprachautomaten können also auch reine Kopiermaschinen sein, und dann ist die Automatensprache auch nicht mehr erkennbar. Sie ist zum perfekten Hochstapler, zur funktionierenden Attrappe geworden.
Ein grundsätzlicher Unterschied ist für mich: Hinter menschlicher Sprache steht ein Jemand, ein Sprecher aus Fleisch und Blut mit einem bestimmten Anliegen. Der mit Sprache eine ganz bestimmte Information weitergeben, eine Beziehung gestalten, eine Selbstaussage machen oder einen Appell richten will, weil wir soziale Wesen sind und für‑, mit- und gegeneinander sprechen. Sprachautomaten dagegen haben weder einen Begriff von Wahrheit oder Schönheit, noch haben sie einen Grund für ihre Wortkombinationen.
Entmenschlichte Sprache hat keine phatische, also beziehungsstiftende Funktion. Und Automatensprache ist voller Falschbehauptungen („Halluzinationen“). Das sieht man den Simulationen aber nicht an. Zumal Chatbots ja in der Ich-Perspektive „sprechen“. Warum eigentlich? Wer soll dieses Ich sein? Wikipedia gibt seine Informationen nicht in Ich-Form aus. Dass Firmen ihren Sprachattrappen den Anschein verleihen, Sprechern mit einer Intention zu entstammen, ist allerdings nicht zufällig, es steckt natürlich ein Geschäftsinteresse dahinter. Und unser unstillbares Bedürfnis nach Resonanz, Akzeptanz und einem Gegenüber.
Was fasziniert uns Menschen eigentlich so daran, der KI dabei zuzuschauen, wie sie halbgare Übersetzungen anfertigt und in Sekundenschnelle Bilder kreiert?
Vonseiten der Nutzer vielleicht ein Geschwindigkeitsrausch? Macht? Das Gefühl, alle Mühsal hinter sich lassen zu können? Ein Schlaraffenland, wo auf Knopfdruck Wünsche erfüllt werden und auf mich gehört wird? Vonseiten der Entwickler das Gefühl, Gott zu spielen? Etwas kreiert zu haben, das viele für ein Wesen halten? Beide Parteien versuchen jedenfalls zu verdrängen, dass sie sich im großen Stil der Leistungen von Menschen bedienen, die dafür ihre Lebens‑, Ausbildungs- und Arbeitszeit aufgebracht haben – und nun selbst aktiv werden müssen, wenn sie das ablehnen.
In Automatensprache heißt es auch: „Kritik ist dabei nicht Angst oder Technikfeindlichkeit, sondern die Einsicht, dass Technik nie neutral ist“. Wie ist das gemeint und welche Konsequenzen folgen aus dieser Einsicht?
Marshall McLuhan hat einmal gesagt: „Erst formen wir die Werkzeuge, und dann formen die Werkzeuge uns.“ Besser kann man es kaum formulieren. In dem Moment, wo wir darauf verzichten, Entscheidungen selbst zu treffen, passiert auch etwas mit dem, was ich „innere Welt“ nennen würde. Die Instanz in uns, die nicht mehr trainiert, etwas „zur Sprache zu bringen“, verändert sich. Neurowissenschaftler sprechen von „kognitivem Off-Loading“: Hirnareale, die nicht mehr aktiviert werden, werden geschwächt.
Und Joseph Weizenbaum, ein Berliner Jude, der in den 30er Jahren mit seiner Familie in die USA floh und dort ein Informatiker der ersten Stunde wurde (und von dem ich ein Interview mit Bernhard Pörksen ins Heft aufgenommen habe), erinnerte daran, dass Technik immer zu bestimmten Zwecken entwickelt wird. Die großen Forschungszentren in den USA zu KI etwa wurden seit dem Zweiten Weltkrieg massiv aus Mitteln des Pentagon finanziert. Es steht also immer jemand dahinter, der eigene Interessen verfolgt, staatliche, militärische, privatwirtschaftliche. Und hinter diesen Interessen steht ein bestimmtes Menschenbild, das uns interessieren sollte. Weizenbaum hat die letzten 40 Jahre seines Informatikerlebens davor gewarnt, Menschen mit Maschinen zu verwechseln. Er hatte mit dem Holocaust und diversen Kriegen gesehen, wohin die Entmenschlichung des Menschen führt. Wenn wir uns selbst mit Maschinen vergleichen, und das passiert derzeit ständig, riskieren wir, uns auch wie Maschinen zu behandeln.
Das zeigt sich auch darin, wie mit sogenannten Data Cleaners oder Content Moderators umgegangen wird: hochqualifizierten Menschen in Billiglohnländern, die für etwa 1$ die Stunde den ganzen Tag lang die pornografischen und gewalttätigen Inhalte labeln, die die Maschine im Rohoutput generiert. Diese Menschen werden vollständig in den Dienst der Maschine (und der Gewinnmaximierung) gestellt. Einer davon, Mophat Okinyi, hat in Automatensprache seinen Alltag beschrieben, das ist bestürzend.
Lässt sich die Weiterentwicklung und der Einsatz textgenerativer KI denn überhaupt noch einschränken oder aufhalten?
Prinzipiell ließe sie sich natürlich schon aufhalten oder einschränken, wenn der politische Wille da wäre. Hochrisikotechnologien wurden auch schon ganz verboten, ein Beispiel ist das Klonen von Menschen, darauf konnte sich die internationale Gemeinschaft einigen. Für KI-Systeme sieht es derzeit nicht so aus, auch wenn selbst Tech-Größen in einem Moratorium letztes Jahr ein Aussetzen der Entwicklung für 6 Monate gefordert hatten. (Die Gründe waren wohl auch durchaus eigennützig.)
Im Moment versucht ein weiterer Automatensprache-Beiträger, der Zürcher Ethiker Peter Kirchschläger, nicht ohne Erfolgschancen, eine internationale KI-Kontrollbehörde nach dem Vorbild der Internationalen Atomenergiebehörde zu gründen. Aber es gibt eine äußerst machtvolle Lobby, die auch Narrative erfindet, die bei Politikern verfangen. Dazu braucht es „nur“ entsprechende Kontakte. Allein Microsoft beispielsweise hatte im letzten Jahr über 100 Lobbykontakte mit der deutschen Regierung, bei 18 davon war der Bundeskanzler höchstselbst dabei, er scheint viel Zeit zu haben. Wer darf sein Begehr sonst auf so kurzem Weg dem Bundeskanzler vortragen?
Denkst Du, dass KI eines Tages in der Lage sein könnte, die kreativen und künstlerischen Entscheidungen zu treffen, die notwendig sind, um literarische Werke authentisch in eine andere Sprache zu übertragen?
Ich finde bemerkenswert, dass Du ein Wort benutzt, um das Beseelte von Literatur und Übersetzung zu formulieren: Du sprichst von authentisch. Eine Maschine kann nie authentisch sein. Aber sie kann durchaus simulieren, was wir unter authentisch (oder lebendig?) verstehen, insbesondere, wenn wir unsere Ansprüche senken. Hier müsste man in die Diskussion einsteigen, mit welchen Trainingsdaten (oder welcher Rechenleistung) eine Qualitätssteigerung zu erzielen wäre.
In der KI-Szene sind viele der Ansicht, dass wir eine Plateau-Phase erreicht haben. Wenn schon das ganze Internet nicht ausgereicht hat, um bessere Automatensprache zu produzieren, wird noch mehr Internet (das ja auch zunehmend aus Botsprache besteht) ebenfalls nicht ausreichen. Möglicherweise können aber nicht mehr, sondern bessere Daten eine Steigerung bringen – von daher das immense aktuelle Interesse an hochqualitativen Sprachwerken wie unseren. Sam Altman, der CEO von OpenAI, sagte Anfang des Jahres deshalb ganz explizit im Britischen Parlament, ohne urheberrechtlich geschützte Daten wäre ChatGPT nur ein lustiges Spielzeug – weshalb er dafür plädiere, dass KI-Entwickler grundsätzlich vom Urheberrecht ausgenommen werden.
Ist der Einsatz generativer KI denn per se schlecht? Es wäre ja durchaus denkbar, dass Übersetzer, genau wie in anderen Branchen, KI für einzelne Arbeitsschritte effektiv verwenden – beispielsweise für Recherchen, Synonymvorschläge oder bei der Suche nach Fachbegriffen. Wäre eine Zusammenarbeit zwischen menschlichen Übersetzerund KI bei der Übersetzung literarischer Werke nicht vorstellbar?
Für all das, was Du an Einzelschritten nennst, gibt es echte Werkzeuge, die nicht auf der ungefragten Vermarktung menschlicher Leistung beruhen und dazu gebaut wurden, um Nutzerdaten abzugreifen, den Menschen zu ersetzen und ihm seine Urteilskraft abzunehmen – und die auch einen Bruchteil an Energie verbrauchen, der ökologische Aspekt muss unbedingt noch einmal erwähnt werden. Ein Austausch mit ChatGPT kostet einen halben Liter Trinkwasser, der weltweite Energieverbrauch für KI-Anwendungen wird 2026 dem eines Landes wie Deutschland entsprechen, so die Prognosen. In den letzten vier Jahren hat sich der Energieverbrauch von Tech-Giganten wie Microsoft und Google um 40–50% erhöht. Für diesen Energiehunger wird jetzt wieder neu auf Atomenergie gesetzt – mit dem entsprechenden Müllproblem. Faire und nachhaltige KI-Produkte mit echtem Werkzeugcharakter gibt es derzeit nicht auf dem Markt.
Das nächste Ziel der KI-Entwicklung ist sogenannte starke KI, d.h. Systeme, die eigenständig, ohne menschliche Intervention wie Prompting, problemorientiert denken und handeln können. Für diese soll das Gehirn direkt mit Computern verschaltet werden, wir bräuchten dann auch gar keine Expertise mehr im Umgang mit Sprachmodellen. Die aktuellen Systeme versuchen mit der Gewinnung von Daten und menschlichen Vorlieben, die Voraussetzung dafür zu schaffen. Und solange KI auf der Kultur des Datendiebstahls beruht – und eine Studie der Initiative Urheberrecht hat das nun eindeutig nachgewiesen –, ist deshalb auch die Nutzung für mich problematisch. KI ist ein geklautes Auto. Ich kann darin mitfahren, sogar bis nach Paris, ich kann mir dort auch den Eiffelturm anschauen, aber es bleibt ein geklautes Auto.
Aber letztlich ist Deine Frage eine moralische und keine berufspraktische. Sie kann nur von jedem individuell be- und verantwortet werden. Wir wissen auch, dass wir in eine Klimakatastrophe rasen und verzichten deshalb nicht alle auf das, was uns bequem erscheint. Aber zumindest sollten wir dabei die wichtigsten Informationen zur Verfügung haben, und das wird von Unternehmensseite gerade tunlichst verhindert.
Vor Kurzem hat die Übersetzerin Janine Malz von einer Verlagsanfrage auf Social Media berichtet. Nicht ihre Expertise als Übersetzerin war gefragt, sondern sie sollte eine KI-generierte Übersetzung prüfen, also ein Post-Editing durchführen. Handelt es sich dabei um einen Einzelfall oder hast Du den Eindruck, dass die Tendenz zu solchen Anfragen steigt?
Ich arbeite mit Janine im Arbeitskreis „Literaturübersetzen und KI“ zusammen, der Anfang des Jahres auf change.org mit den drei deutschsprachigen Literaturübersetzerverbänden das „Manifest für menschliche Sprache“ veröffentlicht hat. Wir hatten uns im Vorfeld der Veröffentlichung ihrer Antwort über die Sache ausgetauscht. Janines Fall ist kein Einzelfall, es gab und gibt auch andere, die für Post-Editing angefragt werden, auch wenn viele literarische Verlage nach ersten Testläufen Abstand von der Arbeit mit Maschinenübersetzungen nehmen und sich (v. a. aus Gründen des Urheberrechts, das die Grundlage des eigenen Geschäftsmodells ist) in den Verträgen sogar zunehmend garantieren lassen, dass keine KI-Systeme benutzt wurden.
Die Kolleg:innen aus den englischsprachigen Ländern berichten uns aber von sehr viel mehr Fällen in ihrem Sprachraum (im Englischen greifen die Systeme auch auf viel größere „Daten“mengen zurück und „funktionieren“ deshalb besser). Es entstehen dort auch schon Agenturen, die „Literaturübersetzungen“ anbieten, die allein auf Post-Editing von maschinenübersetzten Texten beruhen und bei denen die Posteditor:innen zum Teil nicht einmal die Originalsprache beherrschen. Im audiovisuellen Bereich sind diese Tendenzen auch bereits stark zu beobachten. Nicht ohne Grund war die AVTE eine der ersten Organisationen, die sich mit einem Manifest sehr kritisch zu dem Thema geäußert hat.
Janine Malz hat auch einen sehr lesenswerten Beitrag mit dem Titel „Der Wert menschlicher Übersetzung“ auf netzpolitik.org veröffentlicht. Am Ende ihres Artikels schreibt sie: „Was mir in der Debatte im Nachgang meines Online-Posts auffiel, ist, wie viele offenbar ein merkwürdiges Verständnis davon haben, was es heißt, Literatur zu übersetzen.“ Zeigt sich, auch bei der KI-Debatte, nicht vor allem, dass Literaturübersetzende zu wenig sichtbar sind und sowohl die breite Öffentlichkeit als auch offenbar die Literaturbranche kein Verständnis davon hat, was Übersetzende leisten?
Ja, auf jeden Fall. Und ich denke, diese Chance können und sollten wir nutzen. Der Hype um generative KI und ihre angeblichen übersetzerischen Fähigkeiten kann uns motivieren, unser wirkliches Tun zu beschreiben und zu verteidigen. Übersetzen ist für mich auch eine Geste, ein Hinüberbeugen zu einem anderen, ein Versuch zu verstehen. Und dann ein Akt, bei dem ein Mensch mit Herz, Verstand und Körper alles aktiviert, was zu einer lebendigen Stimme führt, die in Abstimmung mit dem Original Klang entfaltet. Das, was zwischen Ausgangs- und Zielsprache passiert, was mit unseren inneren Stimmen zu tun hat und unseren Beruf so beglückend macht, hat mit dem Menschsein zu tun, mit unserer Körpererfahrung, unserer Fragilität und Endlichkeit, aber auch unserer Fähigkeit zu Traum, Spiel und Lust, und ich zumindest möchte mich gegen deren Abwertung zur Wehr setzen.
Einerseits lese ich oft, dass wir in einer Zeit der Polykrisen leben, die von viel Ungewissheit geprägt ist. Andererseits scheint diese Ungewissheit manche auch zu beflügeln. Wie blickst Du in die Zukunft?
Ich möchte kurz aus meinem Essay „Das Blaue vom grünen Himmel“ zitieren. Dort findet sich eine Aussage von Jürgen Schmidhuber, einem mit enormen Summen an öffentlichen Geldern geförderten Informatiker, ehemals der TU München, der (nach Eigendarstellung) die sogenannten neuronalen Netzwerke so weiterentwickelt und mit OpenAI zusammengearbeitet hat, dass ein System wie GPT und die Anwendung ChatGPT erst möglich wurde. Dieser Mann sagt: „Wir alle sind Teil eines großen Prozesses, der das ursprünglich doofe Universum immer komplexer und kluger macht und zu höherer Entwicklung treibt. (…) Sich selbst replizierende KIs werden sich rasch im Sonnensystem und der ganzen Milchstraße ausbreiten, im Zaum gehalten nur von der begrenzten Lichtgeschwindigkeit, und Menschen werden nicht folgen können. Fast alle Intelligenz wird bald sehr weit weg sein von der Biosphäre. Und auch nicht mehr von Menschen kontrolliert werden. Und nach ein paar zig Jahrmilliarden wird gar das ganze sichtbare Universum von Intelligenz durchdrungen sein.“
Das klingt irre, ist aber in diesen Zirkeln ein ganz normaler und allseits geteilter Gedanke. Darin steckt ein Abgesang auf den Menschen. So wie es auch einen Abgesang von Sam Altman auf unsere sozioökonomischen Systeme gibt, wenn er sagt, dass die meisten Menschen zukünftig von einem Grundeinkommen leben werden, das seine Firma gegen die Registrierung mit sensiblen Daten, nämlich einem Irisscan, auszahlt – und zwar schon jetzt, einige Millionen Menschen haben sich bereits registriert. Das Registriergerät, ein futuristisches Auge, wird übrigens in Deutschland produziert.
Solchen Leuten die Zukunft zu überlassen, davor graut mir. In diesen transhumanistischen Kreisen ist man beständig dabei, der Menschheit das Menschsein abzusprechen oder sie ganz aufzugeben, das ist Technomessianismus. Wobei der Messias die Entwickler selbst sind. Wenn wir diesen Leuten folgen, dann sollten wir konsequenterweise ab heute sterben lernen. Die Tatsache, dass ich Automatensprache gemacht habe, steht dafür, dass ich ihnen das Feld nicht überlassen möchte, die Menschheit sind viele. Und bei der Arbeit an dem Büchlein wurde mir auch klar, wie viele Organisationen, Einzelpersonen und Initiativen aktiv sind, um andere Visionen von Zukunft und Technik zu entwickeln – ich habe versucht, in einem Empfehlungsteil einen kleinen Überblick über einige davon zu geben. Mit manchen der Protagonisten bin ich im Austausch, das sind großartige Menschen, die einen Kompass haben, der nicht nur persönliche Gewinnmaximierung heißt. Allein bei unserem Manifest und dem der französischen Kolleginnen von enchairetenos haben über 21.000 Kulturschaffende unterschrieben, darunter einige Nobelpreisträger:innen, viele namhafte Institutionen, Autor:innen, Übersetzer:innen, Filmschaffende, Moderator:innen, Wissenschaftler:innen … Das heißt: Ich halte an dem Gedanken fest, dass wir eine Demokratie und unsere Menschlichkeit zu verteidigen haben. Und unser Schöpferischsein, das sich immer wieder an der Frage entzündet, die wir uns als Menschen selbst sind. Schöpferischsein bedarf der Fragwürdigkeit, der Deutung und historischen Einordnung, sie hat nichts mit einer Kreativität zu tun, die computable, also berechenbar ist.