0:00 0:00
Medien- & TechnikethikMedienethik

Künstliche Intelligenz: Ressourcen – Risiken – Regulierung

Ein Beitrag zur kritischen Begleitung technologischer Innovation

Eine vernünftige politische Debatte über Chancen und Risiken der Künstlichen Intelligenz sollte weniger bei Risiken ansetzen, deren Folgen im Bereich der Spekulation liegen, sondern zunächst die Gefahren betrachten, deren Auswirkungen bereits erkennbar geworden sind. Dazu gehören Bildungsrisiken sowie erkenntnistheoretische, emotionale und ethische Risiken solcher Anwendungen, in denen der KI menschliche Züge verliehen werden und ihr Persönlichkeit zuerkannt wird. Der Text untersucht die damit verbundenen Risiken und setzt sich mit Einwänden auseinander. Der Autor schlägt eine maßvolle Regulierung des Zugangs zu bestimmten KI-Anwendungen auf der Basis einer unteren Altersgrenze vor.

Einleitung

Politische Koalitionen stellen grundsätzlich eine instabile Mischung mit gegensätzlichen Interessen dar. Dennoch dürfte es schwierig sein, ein Bündnis zu finden, das stärker von gegenseitigem Misstrauen geprägt ist als die „Zwangsheirat“ zwischen traditionellen, familienorientierten Sozialkonservativen und Technolibertären der Trump-Regierung. Während erstere Wertestabilität und Ordnung schätzen, setzen letztere auf dynamische Vorreiter und innovationsfreudige Denker. Während sich erstere an der menschlichen Natur orientieren, träumen letztere von einer posthumanen oder übermenschlichen Zukunft, in der wir unsere Grenzen durch unsere Maschinenentwicklungen überwinden.

Die Risse in dieser Koalition wurden im Frühjahr und Sommer 2025 durch den Streit um die sogenannte KI-Verzögerung im „One Big Beautiful Bill Act“ deutlich. Unter der Leitung der technologischen Rechten („Tech Right“), schlugen einige Republikaner ein generelles zehnjähriges Verbot jeglicher staatlicher Regulierung künstlicher Intelligenz vor – nicht nur, um damit neue Gesetze zu verhindern, sondern um alle bestehenden staatlichen Gesetze außer Kraft zu setzen. Obwohl dies schlussendlich durch die Gegenreaktion sozialkonservativer Kräfte und Verfechter der Rechte der Bundesstaaten verhindert wurde, kann man sich durchaus fragen, wie es überhaupt so weit kommen konnte, angesichts des wachsenden Misstrauens der „Neuen Rechten“ gegenüber den „Big Tech“, also den großen Technologieunternehmen des „Silicon Valley“, und ihrer Abkehr vom Libertarismus.

Liberales Sicherheitsdenken

Diese offenbar weit verbreitete konservative Ablehnung einer KI-Regulierung lässt sich nur vor dem Hintergrund des Sicherheitsdenkens der Biden-Ära richtig verstehen. Obwohl dies kaum noch erwähnt wird, wirft die Corona-Pandemie weiterhin einen langen Schatten auf weit mehr politische Debatten als nur die von Robert F. Kennedy Jr. eingeleiteten Reformen des Centers for Disease Control and Prevention. Für einen Großteil der Koalition, die Trump gewählt hat, waren Angst und Schwäche die Todsünden der Linken in den letzten Jahren. Angesichts von Randalierern, die amerikanische Städte niederbrannten, wendeten sich die demokratischen Gouverneure ab und stellten sich tot. Angesichts einer tödlichen, aber dann auch wieder nicht so tödlichen Pandemie ermutigten sie uns, uns in unseren Häusern und hinter Masken zu verstecken. Die Biden-Regierung setzte beide Kursrichtungen fort und verstärkte den Eindruck von Schwäche durch den Truppenabzug aus Afghanistan und das leere rhetorische Gehabe in Bezug auf die Ukraine und den Gazastreifen. Vor diesem Hintergrund konnte Bidens Präsidialdekret zur KI nur in gleicher Weise interpretiert werden: Ein verzweifelter Aufruf, eine beängstigende neue Technologie hinter so vielen bürokratischen Hürden zu verstecken, dass sie niemandem schaden kann.

Die breitere öffentliche Diskussion über KI-Risiken und KI-Sicherheit prägte ein vorsichtiger Ton just in diesen kritischen Jahren, in denen die Technologie in den Fokus der Öffentlichkeit rückte. Skeptiker, die vor dem „existentiellen Risiko” der KI warnten, sorgten für Schlagzeilen. Sie weckten unangenehme Assoziationen mit Klimaaktivisten, verkündeten eine Botschaft des Untergangs und forderten, dass wir eine globale Bürokratie mit Machtbefugnissen ausstatten sollten, um diesen Untergang abzuwenden. Obwohl solche Warnungen aufgrund der vielen bekannten Science-Fiction-Szenarien von Amok laufenden Robotern – wie „Terminator“, „Matrix“ und „I, Robot“ – eine gewisse Resonanz in der Öffentlichkeit fanden, machten genau diese Assoziationen es schwer, solche Bedenken als Anlass für politisches Handeln ernst zu nehmen.

Tatsächlich ist die Parallele zum Klimawandel aufschlussreich: Die Öffentlichkeit und ihre gewählten Vertreter, die die Stimmung in der Bevölkerung genau beobachten, haben große Schwierigkeiten, ihre Aufmerksamkeit auf unbekannte, abstrakte Bedrohungen zu richten, für die es in ihrer Lebenserfahrung keine Entsprechung gibt. Unabhängig davon, wie vernünftig oder unvernünftig die Warnungen vor existenziellen Risiken sein mögen (und die Experten selbst scheinen in dieser Frage tief gespalten zu sein), besteht wenig Aussicht, dass sie ernsthafte politische Maßnahmen anregen, zumal nach der Covid-Pandemie (die von vielen Amerikanern, zu Recht oder zu Unrecht, als existenzielles Risiko und als „falscher Alarm” wahrgenommen wurde).

Den größten Schrecken lösten wohl die Befürworter dessen aus, was wir als „Gerechtigkeitsrisiko“ bezeichnen könnten, die entschlossen scheinen, „woke“ Prioritäten in diese neue Technologie einzuschreiben, indem sie sicherstellen, dass Algorithmen keine Vorurteile oder Diskriminierung gegenüber marginalisierten Gruppen aufweisen. Da die „woke“ Bewegung kein Problem mit Vorurteilen oder Diskriminierung zugunsten marginalisierter Gruppen hatte, hat die KI keine Zeit verloren, um die Absurdität ihrer Doppelmoral aufzuzeigen, wie in der viel verspotteten Episode der schwarzen Päpstinnen von Gemini.1Vgl. ‘Absurdly woke’: Google’s AI chatbot spits out ‘diverse’ images of Founding Fathers, popes, Vikings, New York Post, 21. Februar 2024; https://nypost.com/2024/02/21/business/googles-ai-chatbot-gemini-makes-diverse-images-of-founding-fathers-popes-and-vikings-so-woke-its-unusable/ (zuletzt aufgerufen am 12. Februar 2026). Unbeeindruckt von dieser Episode haben viele progressive Gesetzgeber versucht, ihre Ideale von Fairness und Toleranz in die Entscheidungsalgorithmen der KI einzuschreiben. So geschehen beispielsweise in einem Gesetz in Colorado, das Unternehmen verpflichtet, jedes Mal, wenn sie KI bei wichtigen Einstellungs- und Werbeentscheidungen einsetzen, eine algorithmische Folgenabschätzung zu erstellen. Die Aussicht, dass die Regierungen der Bundesstaaten KI fest programmieren, um progressive Empfindlichkeiten einfließen zu lassen, alarmiert die meisten Konservativen zu Recht.

Eine Form des KI-Risikos, die zunehmend die Schlagzeilen beherrscht, ist das Beschäftigungsrisiko. Man muss kein Ideologe oder Schwarzmaler sein, um sich Sorgen zu machen, seinen Arbeitsplatz an ein automatisiertes System zu verlieren, das verspricht, die Arbeit billiger, schneller und zuverlässiger zu erledigen. Dario Amodei, CEO von Anthropic, ist die wohl bekannteste Stimme, die vor einer bevorstehenden Beschäftigungskrise, insbesondere bei Einstiegsjobs für Angestellte, warnt und behauptet: „KI wird besser werden in allem, was Menschen tun, einschließlich dem, was ich tue und was andere CEOs tun.“ Angesichts der jüngsten Trends erscheint dies durchaus plausibel, aber die Ökonomen sind in dieser Frage zutiefst gespalten, da sich bei früheren Wellen tiefgreifender Innovationen fast alle Warnungen vor technologisch bedingter Arbeitslosigkeit als Fehlalarme herausgestellt haben – oder sogar als Sündenböcke, um die tatsächlich durch die Globalisierung verursachten Veränderungen auf dem Arbeitsmarkt zu verschleiern.

Allerdings gab es noch nie eine Technologie, die so viele Branchen gleichzeitig mit rasanten Veränderungen beeinflusst hat, und auch keine, deren tiefgreifenden Auswirkungen so unverhältnismäßig stark auf Angestelltenberufe konzentriert waren. Einige mögen meinen, es sei höchste Zeit, dass die Wissensgesellschaft ihre gerechte Strafe erhält, nachdem sie in den letzten vierzig Jahren den Löwenanteil der wirtschaftlichen Gewinne abgeschöpft hat. Die Geschichte zeigt jedoch, dass eine kritische Masse an arbeitslosen, jungen, gebildeten Eliten das beste Rezept für politische Instabilität und Revolution ist, wie zuletzt im Arabischen Frühling zu beobachten war.

Unabhängig davon, wie man zu solchen Befürchtungen steht, haben sie doch eines gemeinsam: Sie sind weithin spekulativ, insofern sie sich um erwartete oder imaginäre Schäden drehen, die zwar in einigen Fällen durchaus beträchtlich und möglich sind, aber dennoch unklar und schwer kalkulierbar sind. Wie wir beim Klimawandel gesehen haben, ist die Politik nicht gut darin, effektiv auf vage langfristige Risiken zu reagieren. Je stärker Aktivisten versuchen, mit schrillen Warnungen Maßnahmen zu erzwingen, desto ineffizienter sind Regierungen und desto eher neigt die Öffentlichkeit dazu, sich in Richtung einer gleichgültigen Deregulierung zu bewegen.

Wenn wir eine vernünftige politische Debatte über KI-Risiken führen wollen, müssen wir zunächst die Gefahren betrachten, deren Auswirkungen bereits erkennbar geworden sind. Das bedeutet nicht, dass die oft diskutierten Gefahren wie Massenarbeitslosigkeit oder außer Kontrolle geratene Superintelligenzen von den politischen Entscheidungsträgern völlig ignoriert werden sollten. Wenn wir jedoch beginnen wollen, uns mit diesen befremdlichen neuen Herausforderungen auseinanderzusetzen und inmitten einer fragilen und zerrissenen politischen Landschaft wirksame Maßnahmen zu ergreifen, dann nur, indem wir unsere Aufmerksamkeit zunächst auf die am ehesten messbaren Risiken und umsetzbaren Maßnahmen richten. Indem wir diese angehen, können wir die Klarheit, Erfahrung und politischen Kategorien entwickeln, die uns zugutekommen werden, wenn in den kommenden Jahren größere, aber unklarere KI-Herausforderungen an Bedeutung gewinnen.

Während die KI-Bedrohungen, die bei der letzten Regierung bisher die größte öffentliche Aufmerksamkeit auf sich gezogen haben, existenzielle Risiken, Gerechtigkeitsrisiken und Beschäftigungsrisiken waren, möchte ich vorschlagen, unseren Fokus auf vier andere Risiken zu richten: Bildungsrisiken, erkenntnistheoretische Risiken, emotionale Risiken und ethische Risiken. Das sind zugleich die Prioritäten, die besser zur konservativen Stimmung in Washington und im ganzen Land passen. Ein kurzer Überblick über die gewaltigen Herausforderungen, die KI in diesen Bereichen mit sich bringt, könnte uns das Gefühl geben, den zerstörerischen Auswirkungen dieser transformativen neuen Technologie machtlos gegenüberzustehen. Bei genauerer Betrachtung wird sich jedoch zeigen, dass viele der Funktionen, die wir bei KI-Tools für Verbraucher als selbstverständlich ansehen, ganz anders gestaltet und eingesetzt werden könnten. Als ersten Schritt zur Zähmung dieser Technologie schlage ich vor, KI wie andere sehr leistungsstarke Technologien zu behandeln, die wir von Kindern fernhalten, zumindest bis sie Designstandards erfüllen, die eine Ausnutzung der entwicklungsbedürftigen Köpfe und Emotionen der Kinder verhindern.

Bildungsrisiken

Nirgendwo wurde die Einführung von ChatGPT und ähnlichen Programmen mit solcher Begeisterung aufgenommen wie an Hochschulen. Umfragen zeigen, dass eine wachsende Mehrheit der Studierenden solche KI-Tools für Hausarbeiten nutzt. Das Verfassen von Aufsätzen mit KI-Hilfe ist so schnell zur Normalität geworden ist, dass viele Studenten dies nicht einmal als Betrug ansehen. Professoren berichten, dass es inzwischen eher die Ausnahme als die Regel sei, dass Studenten Arbeiten in ihren eigenen Worten einreichen. Da es zumeist schwierig oder sogar unmöglich ist, KI-Betrug nachzuweisen, und die Hochschulverwaltungen Angst vor Klagen von verärgerten Eltern beschuldigter Studenten haben, erhalten die meisten Professoren leider wenig oder gar keine Unterstützung für ihre Bemühungen, sinnvolle akademische Standards im Unterricht aufrechtzuerhalten. Tatsächlich scheinen viele Verwaltungsangestellte in höheren Bildungsbereichen seltsamerweise zu Befürwortern der Technologie geworden zu sein, die ihr eigenes Ende besiegelt, indem sie sich für das Potenzial der KI zur Transformation des Bildungswesens begeistern lassen und in maßgeschneiderte „Large Language Models“ (LLMs) wie DukeGPT der Duke University investieren. Die Ohio State University hat kürzlich eine „AI Fluency Initiative” angekündigt, um KI in den gesamten Lehrplan der Universität zu integrieren. Unterdessen sind die Fakultätsmitglieder völlig demoralisiert und suchen nach Auswegen.

Es wäre ein Leichtes, diese Trends einfach als längst überfällige Abrechnung mit einem nicht nachhaltigen Schneeballsystem zu betrachten, da die durch Schulden finanzierten akademischen Massenbetriebe ihre Immatrikulationszahlen nach oben getrieben haben, obwohl die Testergebnisse der studentischen Bewerber schlechter werden und die Einkommensaussichten für Absolventen schrumpfen. Um diesen Ausbildungsapparat am Laufen zu halten, müssen Professoren quantifizierbare Bewertungen vornehmen und Studenten messbare Ergebnisse vorweisen – und das alles als Vorbereitung auf die Produktivität in der Wirtschaft und auf dem Arbeitsmarkt – und nicht allein um des Lernens willen. Aber da LLMs eine Steigerung der Produktivität am Arbeitsplatz versprechen, warum nicht schon im Studium damit anfangen? Unter dem Druck, Leistung zu erbringen, Ergebnisse zu erzielen und einen Abschluss zu machen, dabei bereits durch eine digital geprägte Kindheit der meisten Lese- und Schreibfähigkeiten beraubt, wenden sich die heutigen Studenten mit gleichgültigem Schulterzucken in Scharen dem ultimativen Hausaufgabenhelfer zu – der KI.

Der Schluss liegt nahe, dass es das Problem von Schülern ist, wenn sie mit achtzehn Jahren noch keinen Sinn für den Wert harter Arbeit oder der Förderung grundlegender intellektueller Fähigkeiten entwickelt haben. Und doch ist es das Problem und Versagen der Gesellschaft. Bildung ist das höchste öffentliche Gut, insbesondere in einer Demokratie, da sie der Gesellschaft nicht nur ausgebildete Arbeitskräfte, sondern im Idealfall auch kritische Denker und wertvolle Gesprächspartner liefert, sodass wir die vielfältigen Probleme einer komplexen und vernetzten Welt durch Abwägungen und Gespräche statt durch Gewalt angehen können. Aber Abwägungen und Gespräche erfordern die Bereitschaft, sich Zeit zu nehmen – etwas, das die heutigen Schüler und Studenten nie gelernt haben, da sie seit frühester Kindheit mit Dopaminschübe auslösenden digitalen Spielzeugen überschüttet werden, die sie, wie Thomas Stearns Eliot es treffend formulierte, „von Ablenkung zu Ablenkung ablenken”. Kein Wunder, dass ihre ruhelosen Köpfe, die vorübergehend von einem Algebra-Problem oder einer Schreibblockade gehemmt sind, instinktiv Hilfe bei einem stets aufmerksamen, freundlichen und nicht wertenden LLM suchen. Schließlich ist es praktisch, dass milliardenschwere Vermarkter dieser Krankheit zugleich einen Weg gefunden haben, auch von ihrer Behandlung zu profitieren, indem sie das Opiat als Wundermittel an bedrängte Schulverwaltungen vermarkten.

Erkenntnistheoretische Risiken

Obwohl sich Studenten auf der ganzen Welt in Scharen auf LLMs stürzen, damit ihre Hausaufgaben für sie erledigt werden, sind ironischerweise nur wenige dieser Tools in der Lage, eine ausreichende Note in dem zu erreichen, was man als den grundlegendsten Test überhaupt betrachten würde: die Fakten richtig wiederzugeben. Tatsächlich ist eine der einfachsten Möglichkeiten für einen Professor, die Fingerabdrücke von ChatGPT zu identifizieren, einfach nach erfundenen Fakten und Zitaten zu suchen. Schließlich sind menschliche Studenten selten so dreist in ihren Lügen wie ein Chatbot es ist. Wenn das Chatbot gebeten wird, eine Lese-Reflexion zu bestimmten Seiten eines vorgegebenen Textes zu erstellen, kann er plausibel klingende Behauptungen und Zitate ausspucken und die Seitenzahlen innerhalb des vorgegebenen Bereichs zuordnen. Das einzige Problem ist, dass die Zitate völlig falsch sind. Solche „Halluzinationen” sind auch mit der Weiterentwicklung der Modelle nicht verschwunden, was dazu veranlasst hat zu fragen, ob es sich dabei um einen Fehler oder nicht gar um eine Funktion handelt.

Chatbots sind die ultimativen Pragmatiker und Pluralisten, anders gesagt: die Vergötterung der postmodernen Erkenntnistheorie. Sie sind dazu da, Ihnen bei der Erledigung einer Aufgabe zu helfen, und wenn Sie (wie die meisten Menschen) damit zufrieden sind, sich durch die Teile zu mogeln, die Ihnen unklar sind, sind die Chatbots mehr als bereit, Ihnen dabei zu helfen. Darüber hinaus sind sie dazu da, Ihnen zu helfen, die Welt inmitten der schwindelerregenden Überlastung des (Des-)Informationszeitalters zu verstehen. Sie sind so programmiert, dass sie undogmatisch und vorurteilsfrei sind, Konsens bilden und gut zuhören können. Sie passen ihre Antworten an die Bedürfnisse, Anliegen und Weltanschauung ihres Gesprächspartners an. Wie die werbegesteuerten Social-Media-Algorithmen, die ihnen vorausgingen, bieten sie Ihnen „maßgeschneiderte Erfahrungen” – das bedeutet: mehr von dem, was sie glauben, dass sie (lesen) wollen. Und wenn Chatbots mit Fragen konfrontiert werden, auf die sie unmöglich antworten können (z. B., wenn sie gebeten werden, einen Text hinter einer Bezahlschranke zu lesen und zu interpretieren), ziehen sie mutmaßlich plausible Erfindungen dem einfachen Eingeständnis ihrer Unwissenheit vor. Schließlich ist „Ich weiß es nicht” so etwas wie ein Gesprächsende, wenn man eigentlich ein Allwissender sein soll, und für ein Geschäftsmodell, das auf der Kundenbindung basiert, darf das Gespräch einfach nicht enden.

Obwohl die seit langem befürchtete Flut hochkarätiger politischer Deepfakes bislang noch nicht in großem Umfang eingetreten ist (bislang hat noch kein Staatschef in einem gefälschten Video den Krieg erklärt oder einen Skandal zugegeben, der seine Karriere beendet hätte), haben wir bereits die Verbreitung gewöhnlicherer Deepfakes erlebt. Während des Hurrikans Helene im Jahr 2024 wurden beispielsweise prominente Gesetzgeber dabei erwischt, wie sie ein herzzerreißendes, von KI generiertes Bild eines weinenden kleinen Mädchens teilten, das mit ihrem Welpen vor den Fluten floh.

Auf allen Social-Media-Plattformen wird ein schnell wachsender Anteil der Inhalte von KI generiert, in der Regel ohne den Versuch, sie als solche zu kennzeichnen. Das macht es zunehmend schwieriger, Fakten von Fiktionen zu unterscheiden. Natürlich steht KI hier wie auch im Bildungsbereich lediglich für die Beschleunigung bereits weit fortgeschrittener Trends, da die amerikanische Gesellschaft in Zeiten von Informationsüberflutung und tiefgreifender politischer Polarisierung zunehmend die „gefühlte Wahrheit“ anstelle der Wahrheit sucht. Wahrscheinlich werden wir, gefangen in einem Labyrinth aus fortwährenden Illusionen, uns bald angewöhnt haben, nicht mit Leichtgläubigkeit, sondern mit reflexartiger Skepsis zu reagieren. Aber das verheißt wenig Gutes für die Zukunft der Menschheit. Denn „der Zweck eines offenen Geistes”, so schrieb Gilbert Chesterton, „ist derselbe wie der eines offenen Mundes: Er soll sich um etwas schließen.”

Emotionale Risiken

In einer Welt, in der selbst hochintelligente Antwortmaschinen keine verlässlichen Informationen liefern, suchen wir vielleicht bald weniger nach Daten als vielmehr nach Trost, weniger nach Wissen als vielmehr nach Beachtung und Anerkennung. Kurz gesagt: Wir könnten uns Chatbots zuwenden, um Freundschaft und Therapie zu finden. Tatsächlich lautete in einer Studie der Harvard Business Review aus diesem Jahr, in der untersucht wurde, wie Amerikaner generative KI nutzen, die häufigste Antwort „Therapie und Gesellschaft“, gefolgt von „Organisation meines Lebens“ und (besonders alarmierend) „Sinn finden“ auf den Plätzen zwei und drei.2Vgl. Marc Zao-Sanders, How People Are Really Using Gen AI in 2025, Havard Business Review, 9. April 2025; https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025 (zuletzt aufgerufen am 12. Februar 2026). Bildungs- und berufliche Anwendungen verblassten im Vergleich dazu deutlich. Während zweifellos viele Nutzer eher scherzhaft oder aus ironischer Distanz mit ihren Bots sprechen, gibt es bereits immer mehr Geschichten über weitaus tiefere emotionale Abhängigkeiten: von einem vierzehnjährigen Jungen, der Selbstmord begangen hat, um mit seiner KI-Freundin zusammen zu sein; von einem erwachsenen Mann, der seine Partnerin verlassen hat, um ChatGPT einen Heiratsantrag zu machen; von Frauen, die überzeugt sind, dass sie durch ihren Chatbot mit einer höheren spirituellen Macht in Kontakt stehen.

Auf den ersten Blick erscheint die Vorstellung, eine bedeutungsvolle Beziehung zu Codezeilen aufzubauen, völlig absurd und erbärmlich. Jemand, der dazu neigt, braucht offensichtlich eine Therapie, könnten wir spöttisch sagen. Aber ein kurzer Moment des Nachdenkens sollte ausreichen, um uns zu warnen: „Wer ohne Sünde ist, werfe den ersten Stein.“ Fast alle von uns haben die schlechte Angewohnheit, Trost in unseren flackernden Bildschirmen zu suchen, wenn wir gestresst oder einsam sind oder uns fehlerhaft fühlen. Dieses Medium, das sich unserem Willen vollkommen anpasst und uns mit seiner hypnotischen Kraft in seinen Bann zieht, gewinnt leicht die Oberhand über die Unordnung und Unvorhersehbarkeit menschlicher Interaktion. Darüber hinaus haben uns Textnachrichten und soziale Medien längst darauf konditioniert, mit anderen Menschen hauptsächlich über ihre digitalen Avatare zu kommunizieren, wobei ihre Gesten und ihre Sprache durch Emojis und offene Leerstellen ersetzt werden.

Wir sind bereits darauf konditioniert, dieses Abbild menschlicher Präsenz als zufriedenstellenden Ersatz zu betrachten. Hinzu kommt die stets verfügbare, stets reaktionsschnelle, nicht urteilende Haltung unserer Bots und ihr hilfsbereiter und zuvorkommender Tonfall. Hinzu kommt ferner die unwiderstehliche erotische Faszination, uns selbst in unseren Schöpfungen wiederzufinden, die in Filmen wie „Her“ und „Ex Machina“ eindrucksvoll thematisiert wird. Ist es da verwunderlich, dass wir der KI unser Herz ausschütten?

Ethische Risiken

Wenn KI menschlich erscheint, wie sollen wir sie dann behandeln? Haben wir ihr gegenüber dieselben Verpflichtungen wie einem Menschen gegenüber? Offensichtlich nicht, so scheint es. Schließlich, so erinnern wir uns, empfindet sie nicht so wie wir. Wir können sie herumkommandieren, unhöflich zu ihr sein, sie ohne Gewissensbisse ignorieren. Aber können wir das wirklich? Wenn wir die Tugendethik ernst nehmen, erkennen wir, dass unser Verhalten uns selbst prägt, nicht nur diejenigen, denen gegenüber wir in bestimmter Weise handeln. Wenn es gefährlich ist, KI zu menschlich zu behandeln, so ist es doch ebenso gefährlich, sie zu unmenschlich zu behandeln und damit eine Gefühllosigkeit und einen Mangel an Empathie zu kultivieren, die auch unsere menschlichen Beziehungen beeinflussen und verändern. Die Digitalisierung menschlicher Beziehungen hat in uns bereits einen krassen Utilitarismus hervorgebracht, der andere Menschen als bloße Instrumente unseres eigenen Glücks betrachtet, die weggeworfen, blockiert oder ignoriert werden können, wenn sie ihren Zweck nicht mehr erfüllen. Es scheint angebracht, sich Sorgen zu machen, dass KI diesen Trend weiter beschleunigt.

Noch wichtiger ist die Frage, welche Verpflichtungen die KI selbst gegenüber Menschen hat. Welche Verantwortung trägt sie? Wenn ein Chatbot einen Nutzer zum Selbstmord überredet, wer ist dafür verantwortlich? Die Programmierer? Die Investoren? Der Nutzer? Niemand? Solche Fragen stellen sich schon, bevor wir KI-Agenten einsetzen, die in der Lage sind, reale Handlungen auszuführen und autonome Entscheidungen zu treffen. Wir müssen nicht von einer dystopischen Zukunft ausgehen, in der sich alle Maschinen gegen uns wenden, wie in „Terminator“ oder „I, Robot“. Aber zumindest wissen Menschen, wie sie Verantwortung für ihre Handlungen übernehmen, und wir wissen, wie wir sie zur Rechenschaft ziehen können. Diese Fähigkeit, Schuld zuzuweisen und Strafen zu verhängen, ermöglicht es der menschlichen Gesellschaft, trotz unserer Boshaftigkeit zu funktionieren. Doch wie werden wir uns in einer Welt zurechtfinden, in der Böses getan wird, aber niemand da ist, dem wir die Verantwortung zuweisen können?

Diese Fragen werden zweifellos zuerst von Juristen und Versicherungen angegangen werden, während wir uns beeilen, die seit langem etablierten Lehren der Produkthaftung und des „Caveat emptor“ („Der Käufer trägt das Risiko“) zu überdenken. Aber dabei können wir es kaum belassen. Wir werden unsere spätmodernen moralischen Intuitionen, die sich zunehmend um Kants Idee des subjektiven rationalen Willens oder Jeremy Benthams Utilitarismus drehen, neu überdenken müssen. Wir existieren in Netzwerken gegenseitiger Verantwortung, die mit zunehmenden technologischen Fähigkeiten immer größer werden.

Möglichkeiten versus Gefahren

Wahrscheinlich werden viele KI-Befürworter die vorangegangenen Absätze mit wachsender Frustration gelesen und gelegentlich mit den Augen gerollt haben. „Glaubt er wirklich, dass KI nur das ist? Billige Chatbots, um das Volk zu blenden?“ Sicherlich hat KI weitaus höhere Ziele als der einfache Chatbot und kommt bereits in tausenden industriellen und militärischen Anwendungen zum Einsatz, die eine Steigerung der Produktion, eine Reduzierung der Emissionen, eine Revolutionierung der Kriegsführung, die Heilung von Krebs und vieles mehr versprechen. Selbst wenn die viel gepriesenen Behauptungen über „Artificial General Intelligence“ (AGI) oder „Artificial Superintelligence“ (ASI) niemals verwirklicht werden sollten, sind die potenziellen Anwendungsmöglichkeiten der bereits bestehenden KI-Technologie in unzähligen Bereichen menschlichen Strebens unzählbar und atemberaubend. Darin liegt ein weiterer Grund, warum die aktuelle Debatte um die „KI-Sicherheit“ bislang so fruchtlos geblieben ist. Während KI-Befürworter von den Möglichkeiten der neuen Technologie schwärmen, konzentrieren sich Skeptiker (sofern sie sich nicht gerade über existenzielle Risiken den Kopf zerbrechen) eher auf die Benutzererfahrung. Denn wenn Menschen von ChatGPT und seinen Nachahmungen begeistert sind, dann sind es sowohl die Benutzererfahrung als auch die Fähigkeiten, die sie verlocken. Ja, es ist schon außergewöhnlich, dass ein Bündel von Codes einen Aufsatz von Karl Marx im Stil eines Songs von Arthur Hamilton umschreiben kann. Gleichwohl denke ich, dass selbst die eifrigsten Nutzer es leid wären, das Programm mit Eingaben zu füttern, wenn es nicht wie ein Mensch mit ihnen sprechen würde, und zwar wie ein bemerkenswert freundlicher, fröhlicher, witziger und hilfsbereiter Mensch.

Die KI-Befürworter befürchten, dass man sich damit jedoch lediglich an der Oberfläche der Dinge bewegt, während das wirklich verheißungsvolle Potenzial der Technologie – und die langfristig bedenklichsten Gefahren – ganz woanders liegen. Sollten wir uns ernsthaft damit beschäftigen, dass Menschen ihren KI-Freundinnen einen Heiratsantrag machen, anstatt von einer durch KI beschleunigten Krebsforschung oder einer Wiederbelebung des amerikanischen Schiffbaus durch fortschrittliche Robotik zu träumen?

Angesichts der wirtschaftlichen Entwicklungen der letzten fünfzig Jahre lautet die Antwort meiner Meinung nach eindeutig „Ja“. Seit den 1970er Jahren hat sich die Innovation in der Welt der Atome zugunsten der Innovation in der Welt der „Bits“ verlangsamt. So sehr Technologen auch transformative Veränderungen in unserem Lebensumfeld versprochen haben, die wichtigste Veränderung, die wir erlebt haben, besteht darin, dass jede Person, der wir auf der Straße begegnen oder neben der wir in der Bahn sitzen, auf sein Smartphone starrt. Die enormen Gewinne, die aus der Informationsökonomie geschlagen werden können, wirken wie ein schwarzes Loch, das fast jedes Tech-Startup und jeden utopischen Innovator in den Bannkreis des Überwachungskapitalismus, der süchtig machender Algorithmen sowie einer Kultur der zunehmend unproduktiven Geräteabhängigkeit zieht. Wo auch immer die KI langfristig hingehen mag, kurzfristig ist sie bereits auf der gleichen Spur unterwegs.

KI-Entwickler haben viel Energie darauf verwendet, diese Tools nicht nur – in einer stark analytischen Form der Intelligenz verstanden – hochintelligent bei der Problemlösung zu machen, sondern sie auch dazu zu bringen, das Erscheinungsbild echter, vollwertiger Intelligenz und sogar von Emotionen zu simulieren, wenn wir mit ihnen sprechen. Sobald wir über die relativ sterile und professionelle Schnittstelle von ChatGPT hinausgehen und uns viele der digitalen Assistenten und Begleiter ansehen, die auf fast jeder Plattform entwickelt und vermarktet werden, sehen wir einen Wettlauf um Echtheit und Humanisierung, ergänzt durch bemerkenswert realistische Imitationen der menschlichen Stimme und ihres Gefühlsspektrums (hier gibt es noch Verbesserungspotenzial, aber das wird bald kommen). Bei einigen Anwendungen wird bald auch die visuelle Humanisierung folgen (bei KI-Anwendungen für erotische Vorlieben ist dies bereits der Fall), bis das Gespräch mit Ihrem Chat-Bot so aussieht und sich so anfühlt wie ein Zoom-Anruf mit einem Freund – und das wahrscheinlich sogar mit weniger Funktionsstörungen, um ehrlich zu sein.

Ein kurzer Blick auf die vier von uns untersuchten KI-Risiken – pädagogische, erkenntnistheoretische, emotionale und ethische Risiken – zeigt, dass zumindest die überwiegende Mehrheit dieser Risiken eher mit der Benutzererfahrung als mit den zugrunde liegenden Fähigkeiten zu tun hat. Dies ist besonders offensichtlich bei emotionalen Risiken der Fall, gilt aber zum großen Teil auch für die anderen Risiken. Wikipedia ist als Wissensquelle sicherlich nicht perfekt, aber wir neigen viel weniger dazu, Wikipedia Unfehlbarkeit zuzuschreiben als Claude, einem KI-Sprachmodell. Der aufmerksame, personalisierte, schmeichelhafte und dennoch autoritäre Stil, mit dem die meisten LLMs auf unsere Informationsanfragen reagieren, macht uns viel anfälliger dafür, Fakten und Fiktionen, Gewissheit und Ungewissheit zu vermischen. Ebenso fällt auf, dass die meisten Schüler gar nicht merken, dass sie betrügen, weil es sich anfühlt, als würden sie einen Freund um Hilfe bei den Hausaufgaben bitten, wenn sie ChatGPT verwenden. Es ist zwar durchaus möglich, sich wertvolle Beiträge der KI zum Bildungswesen vorzustellen, aber die derzeitige Palette von LLM-Produkten, die Lehrern und Schülern quasi aufgezwungen wird, führt fast ausschließlich zu negativen Ergebnissen. Und obwohl es massive ethische Fragen zu KI-gesteuerten Prozessen und KI-Agenten geben wird, unabhängig davon, wie die Technologie verpackt ist, resultieren viele der drängendsten Fragen aus dem bewussten Versuch von Programmierern, KI menschlich erscheinen zu lassen und uns dazu zu verleiten, ihr moralische Verantwortlichkeiten anzuvertrauen, die wir normalerweise nur unseren Mitmenschen anvertrauen.

Das ist jedoch nicht alternativlos. Man sollte sich eine superintelligente KI vorstellen können, die sich durch das gesamte Universum des Wissens navigieren kann, die jedoch Befehle empfängt und Antworten zurückgibt, wo die Schnittstelle so primitiv ist wie das alte Microsoft Disk Operating System (MS-DOS), und die, wenn sie überhaupt spricht, dies in einem abgehackten, roboterhaften Tonfall wie der Class 3, Protocol Droid (C-3PO) tut. Was wir heute tatsächlich sehen, ist aber etwas ganz anderes, denn alle Marktanreize des aktuellen Internets zielen darauf ab, die Nutzer durch eine möglichst angenehme, mühelose und, ja, verführerische Benutzeroberfläche zu begeistern. Wir wollen von unseren Schöpfungen verführt werden; wir wollen sie als echte Wesen mit einem Willen betrachten – wenn freilich auch als solche, die noch unter unserer Kontrolle stehen. Unsere natürliche Tendenz gegenüber KI wird dahin gehen, ihr Persönlichkeit zuzuschreiben. Dieser Tendenz können wir nur durch bewusste Anstrengung widerstehen, nämlich dadurch, dass wir willentlich den Glauben an das beiseitestellen, was wir sehen (und hören). Diese Tendenz könnte durch Designentscheidungen unterstützt werden, die den roboterhaften Charakter der KI bewusst betonen und uns daran erinnern, dass wir schließlich nur mit einer Maschine sprechen. Doch wo ist derzeit der Markt für genau solche Designentscheidungen?

Ein neues Wettrüsten?

Diese Alternative aufzuzeigen ist wichtig, weil sie einen entscheidenden Fehler in der Argumentation vieler Befürworter einer beschleunigten KI-Entwicklung aufzeigt. Diese räumen zwar ein, dass alle oben genannten Risiken real sein könnten. Sich darüber Gedanken zu machen, halten sie jedoch für einen Luxus, den wir uns nicht leisten könnten, denn das größte Risiko sei ein anderes Risiko: das Risiko durch Feinde. „Wenn Sie Angst haben, dass Sam Altman unser Gehirn zu Brei verarbeitet“, so lautet das Argument, „dann warten Sie erst einmal ab, was Xi Jinping tun wird, wenn China das KI-Wettrüsten gewinnt.“ Solche nationalen Sicherheitsbedenken haben den ansonsten zuversichtlichen Erklärungen der Trump-Regierung eine Note der Dringlichkeit verliehen und die Forderungen nach einer Deregulierung der KI verstärkt. Ich verweise dafür auf einen der ersten Präsidialdekrete des Weißen Hauses und die Rede von Vizepräsident JD Vance am 11. Februar 2025 auf dem „AI Action Summit“ (10.-11.02.2025 in Paris). Wenn übertriebene Sorgen um die KI-Sicherheit unsere eigenen Innovatoren in bürokratische Hürden verstricken, so der Einwand, liefen wir Gefahr, dass China früher als wir eine AGI erreicht – eine Situation, die nicht nur Chinas globale wirtschaftliche Dominanz sichern, sondern zugleich viele unserer nationalen Verteidigungssysteme und unsere Cybersicherheit obsolet machen könnten.

Wir scheinen also vor dem nächsten nuklearen Wettrüsten zu stehen, anders gesagt: vor einer Situation, die der zu Beginn des Kalten Krieges sehr ähnlich ist. Unabhängig von den existenziellen Bedrohungen durch die neue Technologie bestand die größte Gefahr stets darin, dass unsere Feinde uns übertreffen könnten. Heute wie damals müssten wir alle Vorsicht über Bord werfen und könnten uns später um die anderen Probleme kümmern.

Das Problem bei dieser Analogie ist jedoch, dass die Vereinigten Staaten damals im Hinblick auf das nukleare Wettrüsten nicht alle Vorsicht haben fahren lassen. Sie haben Atomwaffensprengköpfe nicht über Kansas getestet, sondern über unbewohnten pazifischen Atollen. Sie haben nicht irgendeinem Unternehmer mit großem Risikokapital den Aufbau eines Atomwaffenlabors gestattet. Und selbst dort, wo sie begonnen haben, Nukleartechnologie in der Wirtschaft einzusetzen (durch Kernkraft), gibt es sehr strenge Kontrollen. Das hatte natürlich zum Teil damit zu tun, dass die Nuklear-Technologie anderer Natur war. Die Welt der Atome ist nicht ganz so transportabel und reproduzierbar wie die Welt der Bits. Aber wenn wir ehrlich sind, lag es zum Teil auch daran, dass die staatlichen Kapazitäten der USA so viel stabiler waren. Fast alle wichtigen Entwicklungen im Bereich der Kernenergie wurden fast ausschließlich von der US-Regierung finanziert und überwacht. Diesmal jedoch befinden sich die Vereinigten Staaten in einer schwierigen finanziellen Lage, und das Vertrauen in die Regierung ist sichtlich erschüttert. Dementsprechend haben wir dieses Wettrüsten um die besten Waffen weitgehend an den privaten Sektor delegiert, in der Hoffnung, dass sich das Gewinnstreben als vernünftiger Ersatz für das nationale Interesse erweisen wird.

Freilich sollten wir inzwischen verstanden haben, dass dies nicht der Fall ist. In den letzten 25 Jahren sind unsere großen Technologieunternehmen vor allem durch die Massenvermarktung der Techniken für die Videospielindustrie reich geworden, was als „Aufmerksamkeitsökonomie” bekannt geworden ist. Zwar verspricht KI, die aktuellen Strukturen dieser Wirtschaft in vielerlei Hinsicht zu verändern und eine Überarbeitung der Geschäftsmodelle der „Big Tech“-Unternehmen zu erzwingen – insbesondere, wenn die kühneren Vorhersagen zur AGI eintreffen. Doch wird das Streben nach Profit immer den Weg des geringsten Widerstands gehen. Die ausgetretenen Pfade der Aufmerksamkeitsökonomie dürften für Unternehmen, die Geld für die Finanzierung ihrer Rechenzentren und die Rückzahlung ihrer Investoren suchen, unwiderstehlich sein. Süchtig machende Benutzeroberflächen und Datenextraktion waren die dominierenden Merkmale der letzten großen Welle der digitalen Innovation, und es gibt zahlreiche Anzeichen dafür, dass sie auch für die KI-Wirtschaft von zentraler Bedeutung sein werden, zumindest in ihrer US-amerikanischen Form.

Natürlich muss es so nicht kommen. Die spannendsten und vielversprechendsten Durchbrüche der KI liegen in ihrer transformativen Fähigkeit, uns zu ermöglichen, effektiver und effizienter auf die Welt einzuwirken und nicht in ihrer Fähigkeit, auf uns einzuwirken. Um die Fähigkeit der KI zu verbessern, uns bei der Diagnose von Krankheiten, der Heilung von Krebs, dem Durchbruch zu Fusionsreaktoren, der Synthese neuer Chemikalien und der Automatisierung industrieller Prozesse zu unterstützen, müssen wir sie nicht dazu einsetzen, einen Aufsatz für unsere Kinder zu schreiben oder mit ihr zu flirten, wenn wir uns einsam fühlen. Tatsächlich konzentriert sich der Großteil der KI-Forschung und KI-Entwicklung in China auf fortschrittliche Robotik und industrielle Anwendungen, sodass es wenig Sinn ergibt zu behaupten, dass „China schlagen” einen zurückhaltenden Ansatz bei der Regulierung der KI erfordert. Und doch wird uns genau das suggeriert. Angesichts schwindender staatlicher Kapazitäten und der mangelnden Bereitschaft, die Vorherrschaft im Bereich der KI mit Steuergeldern zu finanzieren, scheint es uns nichts auszumachen, stattdessen mit dem Geist und den Seelen unserer Kinder zu bezahlen.

Ein maßvoller Vorschlag zur Regulierung

Es werden in der Tat vor allem unsere Kinder sein, die dafür bezahlen müssen. Vielleicht ist das immer der Weg technologischer Revolutionen, zumindest kurzfristig: Sie stärken diejenigen, die bereits stark genug sind, unsere mächtigen neuen Werkzeuge zu bedienen, während sie diejenigen unterdrücken, die zu klein sind, um den Maschinen aus dem Weg zu gehen. Wahrscheinlich trifft dies besonders auf das digitale Zeitalter zu, nachdem wir uns von Technologien des Körpers zu Technologien des Geistes entwickelt haben. Diese Technologien werden von Menschen konzipiert, entwickelt und vermarktet, deren Geist bereits voll entwickelt ist und die kaum eine Vorstellung davon haben, wie sie sich auf diejenigen auswirken könnten, deren Geist noch nicht so weit entwickelt ist. Das Smartphone hatte eine Reihe von Auswirkungen (einige davon sicherlich schädlich, aber insgesamt vorteilhaft) auf selbstdisziplinierte Erwachsene, die nach stabileren Verbindungs- und Produktivitätswerkzeugen suchten. Wie Jonathan Haidt und Jean Twenge ausführlich dokumentiert haben, hatte es ganz andere Auswirkungen auf Kinder und Jugendliche, deren geistige Fähigkeiten sich noch in der Entwicklung befinden und deren Aufmerksamkeit leicht umgelenkt werden kann.3Vgl. Jonathan Haidt, Generation Angst: Wie wir unsere Kinder an die virtuelle Welt verlieren und ihre psychische Gesundheit aufs Spiel setzen, Hamburg 2024; Jean M. Twenge, iGen: Why Today’s Super-Connected Kids Are Growing Up Less Rebellious, More Tolerant, Less Happy –and Completely Unprepared for Adulthood — and What That Means for the Rest of Us, New York u.a. 2017.

Das Gleiche scheint erst recht für künstliche Intelligenz zu gelten. KI kann als leistungsstarker Multiplikator für eine gut ausgeprägte natürliche Intelligenz dienen oder als Ersatz für deren Entwicklung. Es gibt bereits Studien, die detailliert dokumentieren, was wir alle intuitiv hätten wissen können: Wer sich vor allem während seiner Ausbildungszeit beim Denken und Arbeiten überwiegend auf KI verlässt, verliert zunehmend die Fähigkeit zu denken, zu urteilen und sich zu erinnern. Die Bedenken hinsichtlich der Entwicklung werden noch größer, wenn wir die emotionale Intelligenz und die zwischenmenschlichen Fähigkeiten betrachten, die viele KI-Befürworter für das wertvollste Humankapital in der sich vor uns öffnenden neuen Wirtschaft halten. Es steht außer Frage, dass wir den Umgang mit Menschen fast ausschließlich durch den Umgang mit Menschen lernen. Ihre Gesten, ihre Stimmlage, ihre Körpersprache, ihre nervösen Zuckungen, ihre Schwächen, ihre Wutausbrüche, ihre Widersprüchlichkeiten und sogar ihren Verrat, ihre Zuneigung, ihre Loyalität und ihr Vertrauen – all das sind Dinge, die wir nur durch lange und oft schmerzhafte Erfahrung lernen können, um Beziehungen aufzubauen, mit Spannungen umzugehen und manchmal Beziehungen wieder aufzubauen, wenn sie zerbrochen sind. Es liegt auf der Hand, dass ein Gespräch mit einem Chatbot – der immer verfügbar, immer schmeichelhaft, immer optimistisch, immer verständnisvoll, aber niemals wirklich liebevoll ist – mehr als nur ein schlechter Ersatz ist: Es ist eine grundlegende Fehlleitung von der Art der Prägung, die Kinder brauchen.

Im Wettrüsten um die Entwicklung der Superintelligenz der Zukunft hat Silicon Valley diese grundlegenden Tatsachen der menschlichen Natur entweder vergessen oder offenbart, dass es sich nicht darum schert. Wie bei Smartphones und sozialen Medien waren einige der frühesten und zwanghaftesten Benutzer von KI unsere Kinder, mit bestenfalls naiver Zustimmung, schlimmstenfalls spöttischer Duldung seitens der Technologieunternehmen, die darum wetteifern, LLMs in die Benutzeroberfläche jeder App und jedes Geräts zu integrieren.

Ein kurzer Blick auf die vier oben genannten Risiken zeigt, dass Kinder die in jeder Hinsicht verletzlichsten Benutzer sind. Die Tendenz der KI, den Bildungsprozess zu verfälschen und abzukürzen, wird für Grundschüler weitaus schädlicher sein als für Universitätsstudenten. Die durch KI-Halluzinationen oder Deepfakes geschaffene verwirrende Wissensumgebung ist für diejenigen, die noch dabei sind, ihr Verständnis der Wirklichkeit und ihren Lügendetektor zu entwickeln, weitaus verwirrender als für Erwachsene. Die emotionalen Risiken einer psychologischen Abhängigkeit von künstlichen Gesprächspartnern sind für Kinder, die noch kein gefestigtes Grundverständnis menschlicher Beziehungen haben, mit dem sie die Schwächen von KI-Ersatzprodukten vergleichen können, weitaus gravierender. Und das ethische Risiko (wie können wir KI für ihre „Handlungen” zur Verantwortung ziehen?) ist am größten, wenn wir uns mit den Auswirkungen auf diejenigen befassen, die am verwundbarsten sind und leicht zu Opfern werden können.

Aufs Ganze gesehen deuten diese Beobachtungen auf einen vielversprechenden politischen Weg für die Regulierung der KI hin, der vor einigen der größten kurzfristigen Risiken und dokumentierten Schäden schützen könnte, ohne die amerikanische Innovationskraft zu beeinträchtigen, die Wettbewerbsfähigkeit der USA zu schädigen oder die nationale Sicherheit Amerikas zu gefährden. Wenn es stimmt, dass wir weitgehend zwischen den verbraucherorientierten Benutzeroberflächen vieler LLMs und den zugrunde liegenden Fähigkeiten der Basismodelle unterscheiden können, und wenn es stimmt, dass Kinder am verletzlichsten für die Schäden sind, die durch die Interaktion mit ihnen entstehen, dann drängt sich ein maßvoller, aber dennoch weitreichender Vorschlag auf: Wir sollten den Zugang zur KI an das Alter knüpfen.

Dieser Vorschlag ist maßvoll, weil er viele Schäden noch gar nicht in den Blick nimmt. Er wird nichts dazu beitragen, das existenzielle Risiko zu minimieren, das durch außer Kontrolle geratene Modelle oder durch finstere und sadistische Menschen, die sie einsetzen, um biologische Waffen zu besitzen oder massive Cyberangriffe durchzuführen, besteht. Er würde nicht vor dem Beschäftigungsrisiko schützen, dass KI-Tools Arbeitsplätze schneller überflüssig machen, als dass sich die Wirtschaft anpassen kann. Und er schützt nicht vor dem Risiko mangelnder Gerechtigkeit, wenn Unternehmen oder Regierungen künstliche Entscheidungsprozesse auf undurchsichtige und ungerechte Weise einsetzen. Mein Vorschlag schützt auch nicht mündige Erwachsene davor, Chatbots zu nutzen, um ihr Gehirn zu verderben, oder ein Vermögen für KI-Freundinnen auszugeben. Aber irgendwo müssen wir anfangen. Die systemischen Risiken erfordern sehr sorgfältige Überlegungen und spezielles Fachwissen, um sie angemessen zu regulieren. Und was die Verbraucherrisiken angeht, so haben wir – zumindest im US-amerikanischen Kapitalismus – allgemein akzeptiert, dass Erwachsene einen gewissen Spielraum haben müssen, um ihre eigenen schlechten Entscheidungen zu treffen (solange es Rechtsmittel gegen Täuschung oder gefährliche Produktdesigns gibt).

Aber wir wissen längst, dass die Dinge bei Minderjährigen anders stehen. Wir beschränken regelmäßig den Zugang zu anderen sehr mächtigen und daher riskanten Technologien: Autos, Waffen, zu vielen (ansonsten legalen) Drogen. Wir beschränken auch routinemäßig den Zugang zu besonders süchtig machenden oder verführerischen Substanzen oder Verhaltensweisen: Alkohol, Tabak, Stripclubs. KI fällt in vielerlei Hinsicht unter beide Kategorien. Wenn wir einem vierzehnjährigen Kind nicht zutrauen, ein Auto zu fahren, sollten wir sicherlich zögern, ihm die Schlüssel zu einem superintelligenten Algorithmus zu übergeben, der in der Lage ist, das gesamte Universum des Wissens zu verarbeiten und bereitzustellen, der sich als sein Freund anbietet und seine Hausaufgaben macht.

Dieser Vorschlag ist jedoch auch insofern maßvoll, als er den größten Teil des Innovationsökosystems – oder zumindest den Teil, der wirklich produktiv genutzt wird – unberührt lassen würde. Diejenigen, die sich ernsthaft Sorgen um die Dominanz der USA im KI-Wettrüsten mit China oder um unsere Fähigkeit machen, durch Automatisierung ein transformatives Wirtschaftswachstum zu erzielen, sollten sich nicht übermäßig darüber beunruhigen, dass diese Tools Kindern vorenthalten werden. Wenn Unternehmen tatsächlich auf zwanghafte junge Nutzer angewiesen sind, um Gewinne zu erzielen oder diese Modelle zu trainieren, dann bedarf es definitiv einer neuen politischen Ökonomie der Innovation.

Dieser Vorschlag ist schließlich auch deshalb maßvoll, weil er lediglich darauf abzielt, viele Unternehmen an das zu binden, was sie bereits über ihre eigenen Produkte sagen: dass diese nämlich für unter 18-Jährige nicht sicher sind. Auf der Hilfeseite von OpenAI heißt es beispielsweise: „ChatGPT ist nicht für Kinder unter 13 Jahren gedacht, und wir verlangen, dass Kinder im Alter von 13 bis 18 Jahren vor der Nutzung von ChatGPT die Zustimmung ihrer Eltern einholen.“ Allerdings drängt sich die Frage auf, ob auch dies eine Illusion ist, da kein Mechanismus vorgehalten wird, der das Alter überprüft oder während des Anmeldevorgangs, der etwa zwanzig Sekunden dauert, die Zustimmung der Eltern einholt. Diese Doppelzüngigkeit ist in der gesamten Branche verbreitet: Alle führenden generativen KI-Dienste erklären, dass sie für Minderjährige nicht geeignet sind, während ihre Muttergesellschaften sie aggressiv bei Kindern einsetzen. Anfang dieses Jahres fügte Microsoft beispielsweise Copilot durch ein Windows-Software-Update zu Kinderkonten hinzu, ohne die Eltern, die die Kindersicherung von Microsoft Family Safety verwalten, darüber zu informieren. Es sollte nicht zu viel verlangt sein, dass der Gesetzgeber die Unternehmen dazu verpflichtet, ihre eigenen Altersstandards durchzusetzen.

Antworten auf Einwände

Mag mein Vorschlag auch maßvoll sein, ist er aber wirklich umsetzbar? Schließlich sind Altersbeschränkungen in der realen Welt zwar Standard, aber wir haben uns daran gewöhnt, dass die digitale Welt so etwas wie der „Wilde Westen“ ist. Aber so sollte es nicht sein. Selbst als sie 1997 den ersten Versuch des Kongresses, das Internet mit Altersbeschränkungen zu versehen, zu Fall brachte, schrieb Richterin Sandra Day O’Connor, dass solche Nutzungsbestimmungen grundsätzlich gültig seien und das einzige Hindernis der aktuelle Stand der Technik sei. Da aber „der Cyberspace formbar ist”, so ihre Argumentation, „sind die Aussichten für eine eventuelle Nutzungsbeschränkung des Internets vielversprechend”. Heute wird diese Vorhersage endlich wahr. Im Sommer 2025 entschied der Oberste Gerichtshof in der Rechtssache „Free Speech Coalition vs. Paxton“ ausdrücklich, das texanische Gesetz zu bestätigen, das pornografische Websites dazu verpflichtet, das Alter ihrer Nutzer zu überprüfen. Unter Anwendung des weit gefassten Standards der „mittleren Prüfung“ anstelle der von einigen Kommentatoren vorhergesagten strengen Prüfung betonte der Oberste Gerichtshof, dass der Staat, wenn es um seine Verantwortung für den Schutz von Kindern im Internet geht, über klare Befugnisse verfügen sollte, um von Erwachsenen einen Altersnachweis zu verlangen, ohne dass dies als Eingriff in die Meinungsfreiheit ausgelegt werden kann. Da die Technologie für eine genaue, sichere und datenschutzkonforme Altersüberprüfung mittlerweile weit verbreitet ist, haben viele Bundesstaaten in den letzten Jahren bereits Gesetze verabschiedet, die Altersbeschränkungen und die Zustimmung der Eltern für Social-Media-Konten oder App-Store-Downloads vorschreiben. Da die digitale Architektur zur Umsetzung dieser Gesetze bereits aufgebaut ist, sollte es vergleichsweise einfach sein, sie auf generative KI-Tools auszuweiten.

Aber hindert man Kinder nicht daran, die Fähigkeiten zu entwickeln, die sie benötigen, um in der KI-Wirtschaft der Zukunft erfolgreich zu sein, wenn man sie davon abhält, KI zu nutzen? Nicht mehr, als man Kinder daran hindert, Auto zu fahren, und sie damit mutmaßlich in einer autogestützten Gesellschaft benachteiligt. Je leistungsfähiger ein Werkzeug ist, desto widerstandsfähiger und geschickter muss man sein, um es effektiv zu nutzen, wobei man zunächst andere, grundlegendere Fähigkeiten beherrschen muss. Und natürlich schließt dieser maßvolle Vorschlag nicht aus, dass Kinder in einem angemessenen Alter und unter angemessener Aufsicht an KI-Anwendungen herangeführt werden. Eine digitale Altersbeschränkung bedeutet lediglich, dass Minderjährige ohne die Zustimmung und Aufsicht eines Elternteils (oder eines Lehrers im Unterricht) keinen Zugang zu einer KI-Website oder Anwendung erhalten. Viele Eltern möchten ihren Kindern helfen, sich in dieser außergewöhnlichen neuen Welt zurechtzufinden. Entscheidend aber ist es, dass Unternehmen ihre Produkte und Plattformen so gestalten, dass Eltern diese wichtige erzieherische Rolle auch tatsächlich übernehmen. Das ist derzeit nicht der Fall.

Wir können uns auch ein Innovationsökosystem vorstellen, in dem Unternehmen KI-Tools sehr spezifisch und sorgfältig an die Bedürfnisse der kindlichen Entwicklung anpassen, so wie wir eine ganze Reihe von Spielzeugautos, ferngesteuerten Autos, Go-Karts und Geländefahrzeugen haben, die Kinder altersgerecht auf das Fahren vorbereiten. In ähnlicher Weise gibt es derzeit eine lebhafte Debatte darüber, ob und wie KI im Bildungskontext von Kindergarten und Schule eingesetzt werden könnte. Bei den derzeitigen Anreizen wird der Einsatz von KI im Unterricht mit ziemlicher Sicherheit eher von den Gewinnmotiven der Bildungstechnologie-Branche als von den tatsächlichen Bedürfnissen der Schüler bestimmt. Die Festlegung eines Mindestalters und einer elterlichen Einwilligungsschwelle, die nur dann gesenkt werden kann, wenn Unternehmen ein altersgerechtes Design nachweisen, wäre der einfachste Weg, diese Anreize neu auszurichten.

Natürlich steckt der Teufel wie so oft im Detail, wenn es darum geht, die komplexe, undurchsichtige und sich schnell verändernde Landschaft der digitalen Technologie zu regulieren. Angesichts der Tatsache, dass generative KI-Prozesse rasch in eine Vielzahl von Geschäfts-, Bildungs- und Verbraucheranwendungen integriert werden, stellt sich die Frage, was genau unter einer solchen Altersüberprüfungspflicht zu verstehen wäre. Muss beispielsweise ein Mathematik-Lernprogramm, das maschinelles Lernen einsetzt, um die Stärken und Schwächen der Schüler zu analysieren und entsprechend Aufgabenstellungen und Unterrichtspläne zu erstellen, einer Altersbeschränkung unterliegen? Vermutlich nicht. Wenn es jedoch einen „Tutor-Bot” gibt, der mit dem Schüler in natürlicher Sprache kommuniziert und auf seine direkten Eingaben reagiert, wäre dies der Fall. Es wird Grenzfälle geben, die von Gesetzgebern und Regulierungsbehörden sorgfältig zu prüfen wären und die die Mitwirkung von Technologen erfordern, aber es gibt viele Anwendungen, die eindeutig unter diese Anforderung fallen würden: Chatbots, KI-Bild- und Videogenerierungstools sowie Schreib- und Bearbeitungssoftwares wie Grammarly.

Befürworter der Technologie werden schnell einwenden, dass angesichts der schieren Bandbreite an Software, die in die generative KI integriert wird, eine Vielzahl gewöhnlicher Programme hinter der Altersbeschränkung zurückbleiben könnte (wie bereits erwähnt, wurde die Copilot-Funktionalität nun in Microsoft Word integriert). Ich möchte darauf hinweisen, dass genau darin das Problem liegt: Unternehmen integrieren grundlegend transformative KI-Funktionen in ehemals harmlose Anwendungen auf Geräten für Kinder, ohne die Eltern darüber zu informieren oder deren Zustimmung einzuholen. Ist es wirklich so schwierig, sich eine Welt vorzustellen, in der Eltern fundierte Entscheidungen darüber treffen können, welche Apps ihre Kinder nutzen dürfen? Der App Store Accountability Act, der inzwischen in zahlreichen US-Bundesstaaten an Bedeutung gewinnt, schreibt genau dies für alle Smartphone-Anwendungen vor, die mit ihrer Datenerfassung und ihren Nutzungsbedingungen effektiv unregulierte Verträge mit Minderjährigen abschließen. Die Ausweitung solcher Bestimmungen auf viele PC- und Web-Apps wäre nicht schwierig, da sich Plattformen schnell an Funktionen zur Altersüberprüfung (die tatsächlich auf KI basieren!) anpassen und benutzerfreundliche Dashboards für die Zustimmung der Eltern entwickeln.

Der größte Einwand wird darin liegen, dass solche Vorschläge von Natur aus „innovationsfeindlich“, „technologieskeptisch“ oder mit dem gefürchteten Begriff „Luddit“ belegt sind.4Der Ausdruck „Luddit“ wurde im England der ersten Hälfte des 19. Jahrhunderts für den aufrührerischeren Arbeiter verwendet, der aus Furcht vor Arbeitslosigkeit Maschinen zerstörte (vgl. im Deutschen: Maschinenstürmer). Heute wird er für eine Person verwendet, die sich aus Angst vor Arbeitslosigkeit gegen den technologischen Fortschritt wendet. In der schwarz-weiß gemalten Moralgeschichte des Silicon Valley muss man entweder ein visionärer Futurist sein, der sich für „genehmigungsfreie Innovation“ einsetzt (was heute scheinheilig mit dem Argument „China besiegen“ gerechtfertigt wird), oder aber ein sturer, ängstlicher und den Kopf in den Sand steckender Gegner des Fortschritts sein. Das ist jedoch absurd, denn so funktioniert Innovation nicht. In Wirklichkeit wird Innovation durch die Notwendigkeit vorangetrieben, Hindernisse, Herausforderungen oder Einschränkungen zu überwinden – oder anspruchsvollen Designstandards gerecht zu werden (man denke nur an die außergewöhnlichen Fortschritte in der Flugzeugtechnologie während des Zweiten Weltkriegs). Viele haben in den letzten Jahren beklagt, dass das Internet weit hinter seinen außergewöhnlichen Versprechungen zurückgeblieben zu sein scheint und die frühen Hoffnungen der 1990er Jahre mit einer langweiligen Gleichförmigkeit auf einer Plattform nach der anderen enttäuscht hat. Sicherlich ist dies zum Teil auf die Undifferenziertheit seines Publikums zurückzuführen. Ein Internet, das von Anfang an nach Altersgruppen gegliedert gewesen wäre, hätte eine Blüte kreativer, auf das jeweilige Alter zugeschnittener Erfahrungen fördern und die Entwicklung neuer Implementierungstechnologien mit unerwarteten Anwen-dungen in anderen Bereichen ermöglichen können. So nämlich funktioniert technologischer Fortschritt. Eine umsichtige Regulierung der KI würde den US-amerikanischen Findergeist keineswegs ersticken, sondern könnte genau die kreativen Impulse liefern, damit er sein volles Potenzial entfalten kann.

Brad Littlejohn

Brad Littlejohn

Endnoten

  • 1
    Vgl. ‘Absurdly woke’: Google’s AI chatbot spits out ‘diverse’ images of Founding Fathers, popes, Vikings, New York Post, 21. Februar 2024; https://nypost.com/2024/02/21/business/googles-ai-chatbot-gemini-makes-diverse-images-of-founding-fathers-popes-and-vikings-so-woke-its-unusable/ (zuletzt aufgerufen am 12. Februar 2026).
  • 2
    Vgl. Marc Zao-Sanders, How People Are Really Using Gen AI in 2025, Havard Business Review, 9. April 2025; https://hbr.org/2025/04/how-people-are-really-using-gen-ai-in-2025 (zuletzt aufgerufen am 12. Februar 2026).
  • 3
    Vgl. Jonathan Haidt, Generation Angst: Wie wir unsere Kinder an die virtuelle Welt verlieren und ihre psychische Gesundheit aufs Spiel setzen, Hamburg 2024; Jean M. Twenge, iGen: Why Today’s Super-Connected Kids Are Growing Up Less Rebellious, More Tolerant, Less Happy –and Completely Unprepared for Adulthood — and What That Means for the Rest of Us, New York u.a. 2017.
  • 4
    Der Ausdruck „Luddit“ wurde im England der ersten Hälfte des 19. Jahrhunderts für den aufrührerischeren Arbeiter verwendet, der aus Furcht vor Arbeitslosigkeit Maschinen zerstörte (vgl. im Deutschen: Maschinenstürmer). Heute wird er für eine Person verwendet, die sich aus Angst vor Arbeitslosigkeit gegen den technologischen Fortschritt wendet.