Wer Sprachmodelle beherrscht, beherrscht auch die Politik (NZZ und WOZ)

In der NZZ ist mein zunächst auf Englisch veröffentlichter Artikel »Whoever Controls Language Models Controls Politics« erschienen. Der Titel wurde von der Redaktion verändert und lautet nun: »Das Ende der menschlichen Politik«.

Franziska Meyer (WOZ)

Der Wochenzeitung (WOZ) habe ich anschließend ein Interview zu diesem und anderen Themen gegeben.

Der Wortlaut des NZZ-Artikels findet sich hier:

Wer die Sprachmodelle beherrscht, beherrscht auch die Politik

Die Welt Künstlicher Intelligenz denkt gross und zugleich simpel, und zwar von Anfang an. Als im Sommer 1956 am Dartmouth College jener Workshop stattfand, der den Begriff und das Feld der «artificial intelligence» ins Leben rief, lautete die selbstgesetzte Aufgabe herauszufinden, «wie man Maschinen dazu bringen kann, Sprache zu verwenden, Abstraktionen und Begriffe zu formen, Probleme zu lösen, die bisher Menschen vorbehalten sind, und sich selbst zu verbessern.» Angesetzte Arbeitszeit: zwei Monate.

Fast siebzig Jahre später – am 28. März 2023 – erschien ein offener Brief, der bis heute nahezu dreissigtausend Unterschriften gesammelt hat, darunter die von Elon Musk und vielen namhaften KI-Forschern. In ihm wird aufgerufen, die Entwicklung grosser KIs sofort für mindestens sechs Monate auszusetzen, weil Systeme wie das Sprachmodell ChatGPT inzwischen zu mächtig und zu gefährlich geworden seien. Es drohten «fundamentale Risiken für die Gesellschaft und die Menschheit» durch «auf Menschenniveau agierender KI». Bis man sich nicht darauf geeinigt habe, wie das zu regulieren sei, sollten alle KI-Labore auf weitere Forschung verzichten.

Unterschätzte man in Dartmouth noch spektakulär, als wie schwer sich die Automatisierung von Intelligenz herausstellen würde, zieht der offene Brief mit viel Bombast die falschen Konsequenzen aus der Mächtigkeit der Technik.

Denn erstens ist auch heute das Ziel von Dartmouth nicht erreicht – aller Erfolge zum Trotz agieren GPT-4 und Co nicht «auf Menschenniveu». Solche Fantasien sind Teil des Hype um KI, der am Ende vor allem den Firmen dient, die sie entwickeln. Was beweist die Macht eines Unternehmens schließlich mehr als ein derart gefährliches Produkt? Insider spekulierten ohnehin bald, hier gehe es darum, die in der Branche lange geltenden Regel offener Forschung zu unterlaufen und in den sechs Monaten im Geheimen weiterzuarbeiten. (Und in der Tat verkündete Musk vergangene Woche [HB1] den Start seines eigenen KI-Unternehmens namens X.AI; die eigene Unterschrift scheint nicht mehr viel zu gelten.)

Zweitens, und viel wichtiger, spricht aus dem Brief auch ein katastrophales Verständnis vom Zusammenwirken von Technik und Politik, und zwar sowohl, was ihre Gefahren wie was deren Bekämpfung betrifft. Während die Befürchtung, KI-generierter Text könnte Informationskanäle mit Unwahrheiten und Propaganda überschwemmen, durchaus berechtigt ist, ist der Brief ansonsten von apokalyptischen Fantasien über die völlige Ersetzung des Menschen durch Maschinen und «den Kontrollverlust über unsere Zivilisation» getragen.

Das sind die Sorgen sogenannter «longtermists» – einer utilitaristischen Denkschule, die möglichen zukünftigen Menschen ein ungleich stärkeres moralisches Gewicht verleiht als realen gegenwärtigen. Ihre Vertreter, denen auch Musk nahesteht, denken in Jahrtausenden, weshalb ihnen die Gefahr einer hyperintelligenten Maschine mehr Kopfzerbrechen bereitet als etwa die globale Armut, die soziale Ungerechtigkeit oder die Schäden, die der Klimawandel noch zu unseren Lebzeiten verursacht.

Was aber mit grossen Sprachmodellen wie ChatGPT tatsächlich auf uns zukommt, ist keine technische Katastrophe bösartiger Computer. Viel konkreter drohen Sprachmodelle ein demokratisches Desaster zu werden – durch die Privatisierung von Sprachtechnologien als zukünftigem Ort politischer Öffentlichkeit. Genau an dieser Stelle kommen Politik und Zivilgesellschaft ins Spiel – und sind sie gefordert.

Die technische Entwicklung der letzten Jahre hat gezeigt, dass ein KI-System umso leistungsfähiger wird, mit je mehr Daten man es füttert. Allerdings ist auch klar geworden, in welchem Verhältnis dazu die Entwicklungskosten stehen: Sie steigen mit der Grösse exorbitant. Wie eine Studie der Stanford University zeigt, hat hat der Wettlauf um immer umfangreichere Modelle inzwischen dazu geführt, dass nur noch eine Handvoll von Firmen im Rennen sind – neben GPT-Entwickler OpenAI sind das Googles Deepmind und Facebook. Hingegen spielen kleinere nichtkommerzielle Unternehmungen und Universitäten beim Erreichen immer neuerer Grössenrekorde so gut wie keine Rolle mehr. Zwar versucht man weiterhin, mit Open-Source-Modellen wie StableLM oder LLaMA gegenzusteuern, aber gegen die großen Player kommen sie kaum an, die «AI as a service» . [HB2] 

Damit stehen wir einem neuen Oligopol gegenüber, das Sprachtechnologien in der Hand weniger privatwirtschaftlicher Firmen konzentriert. Wohlgemerkt gewinnen diese mächtigen Akteure keine Hoheit über ein beliebiges Produkt, wie etwa die Firma YKK, die 46% aller Reissverschlüsse weltweit produziert. Sprachmodelle halten keine Jacken zusammen. Im Zweifel entscheidet sich in ihnen in Zukunft von politischer Meinungsbildung und Mitsprache.

Warum das so ist, lässt sich anhand der sogenannten «bias»-Problematik zeigen. Sprachmodelle bilden ihre Ausgaben den Texten nach, auf die sie trainiert wurden – und das ist mehr oder weniger das Geschriebene des gesamten Internet. In der Datenmenge schwimmen auch all die «biases», also die Vorurteile und Irrtümer, Rassismen und Sexismen, die die digitale Sphäre ausmachen.

Sich diesem Amalgam entgegenzustellen bedeutet entweder, die Ausgabe zu zensieren, wie es etwa bei ChatGPT geschieht, und sie damit potentiell unbrauchbar zu machen. Oder aber, wie ebenfalls praktiziert, man filtert den Datensatz auf seine unerwünschten Bestandteile – und füttert das Modell mit einer besseren Welt.

Das aber ist eine eminent politische Entscheidung. Indem man KIs entschärft, formuliert man notwendig eine gesellschaftliche Vision. Weil GPT etwa tendenziell eher progressive Werte vertritt, haben konservative Medien sich schnell über «woke KI» ereifert. In Wirklichkeit aber stehen eher PR-Erwägungen hinter dieser Kuratierung: Sexistische Beleidigungen, politische Extrempositionen oder rassistische Outputs wirken sich schlicht negativ auf die Gewinnmarge der Techunternehmen aus. KI ist immer ideologisch und auch der Versuch, sie neutral zu gestalten – und sei es nur aus wirtschaftlichen Interessen – ist zum Scheitern verurteilt. Musks Ankündigung eines «TruthGPT» signalisiert schon im Namen das Missverständnis, es könne eine unpolitische KI geben, wo sie in Wirklichkeit nur eine andere Politik verfolgt.

Die Entscheidung über den gesellschaftlichen Entwurf, den Sprachmodelle artikulieren, sind aber so in der Hand von wenigen Firmen, die keiner demokratischen Kontrolle unterliegen und niemandem gegenüber rechenschaftspflichtig sind ausser ihren Anteilseignern. Sie werden damit, wie man einen Begriff der Philosophin Elizabeth Anderson zweckentfremden könnte, zu «privater Regierung».

Ihr Produkt ist exakt jene Ressource, die eine vitale Demokratie ausmacht: Die Sprache zur Aushandlung politischer Alternativen – und zwar auf der einzigen Ebene, auf der das möglich ist, jener der politischen Öffentlichkeit. Statt zu debattieren, in welcher Welt wir leben wollen, ist Teil dieser Entscheidung schon getroffen, bevor ein einziges Wort gesprochen ist, weil die Sprache selbst schon einer politischen Vorentscheidung unterstand.

Da hilft es wenig, dass man ein Sprachmodell logischerweise auch nach rechts dirigieren kann, wie der Informatiker David Rozado gezeigt hat, als er kürzlich «RightWingGPT» schuf. Eine Zukunft, in der es neben einer progressiven auch eine konservative Sprach-KI gäbe, löscht die Diskussion zwischen gesellschaftlichen Gruppen, deren Konflikte im Idealfall zur Meinungsbildung einer informierten Öffentlichkeit beitragen, nämlich aus.

Statt Austausch gäbe es nur die Verstärkung bereits bestehender Meinungen; und anders als bei den vielbeschworenen Echokammern sozialer Medien, wären es hier nicht einmal mehr Menschen, die die Parameter dieser Diskussion festlegten. An ihre Stelle träte ein komplexes System aus maschineller Sprachverarbeitung und profitorientierten Privatunternehmen.

Weitergedacht können Sprachmodelle in Zukunft sogar selbst den Status einer Ersatzöffentlichkeit annehmen. Werden immer mehr Texte durch KI-Systeme generiert – und davon ist auszugehen –, sinkt der Anteil an menschenproduzierten Diskursbeiträgen stetig. Und weil Sprachmodelle, einmal trainiert, schwer zu verändern sind und zudem von der Vergangenheit auf die Zukunft schliessen, droht damit, was die Linguistin Emily Bender einen «value lock» genannt hat: Das «Einrasten» von Werten, in denen keine Diskussion mehr zu einem Umdenken führen kann, sondern sich politische Stagnation ausbreitet.

Wer die Sprachmodelle beherrscht, beherrscht auch die Politik. Regulierung von KIs – die der offene Brief von Musk und Co. vor allem als freiwillige Selbstkontrolle der Industrie fordert –, kann sich nicht mit blossen Ethikrichtlinien bescheiden. Zwar ist es unumgänglich, rechtliche Regelungen zu schaffen, die Fälschungen durch KIs verbieten oder Daten nicht ohne Zustimmung zu ihrem Training erlauben. (Italien hat ChatGPT bereits bis auf Weiteres verboten und auch Deutschland will nun prüfen, ob es mit dem EU-Datenschutz vereinbar ist. Selbst die US-Regierung hat bereits die regulative Einhegung von KIs gefordert.) Aber es ist notwendig, auch hier grösser zu denken.

Werden KI-Systeme zum Ort von Gesellschaftsentwürfen, zu dominanten Faktoren der Öffentlichkeit oder gar zu einer politischen Infrastruktur selbst, spricht viel dafür, sie tatsächlich auch öffentlicher Kontrolle zu unterstellen. Das beginnt bei der Regulierung ihrer Anwendungsgebiete, wie es etwa der «EU AI Act» vorsieht. Sollten bloße Leitplanken sich aber als zu schwach erweisen, weil etwa der Einsatzbereich von Allzweck-KIs gar nicht mehr klar abzustecken ist, bleibt als letztes Mittel nur, horribile dictu, die Vergesellschaftung – also die Enteignung.

So erscheint auch der offene Brief in neuem Licht. Nicht bloss als technologischer Katastrophismus einer Riege von «longtermists», sondern als Versuch, von den politischen Konsequenzen dieser Technik abzulenken. Denn die sind sehr viel konkreter als die Diktatur der Maschinen – ihre demokratische Überwachung ist aber ungleich gefährlicher für die Firmen und Personen, die vom Hype um KI am meisten profitieren.



Beitrag veröffentlicht

in

von

Schlagwörter:

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert