Im Deutschlandfunk lief eine Version meiner Höllerer-Vorlesung unter dem Titel »Schreiben nach KI«:
Und der Zeit durfte ich Peter Neumann ein Interview über die literarische, politische und theoretische Seite großer Sprachmodelle geben. Daraus:
ZEIT ONLINE: Welche politischen Konsequenzen sind damit verbunden, wenn der Zweifel an der Herkunft eines Textes oder eines Bildes bald nicht mehr prinzipiell ausgeräumt werden kann?
Bajohr: Normalerweise geht es bei diesen Diskussionen immer um Deepfakes, also um Manipulationen, oder um Bias, also um die Rassismen, die schon in der Sprache enthalten sind, mit der die KI trainiert wird. Was mich daran interessiert, ist, dass Sprache das politische Medium per se ist. Und was man da beobachtet, ist eine Privatisierung von Sprachtechnologie, weil es nur eine Handvoll Techunternehmen gibt, die große Sprachmodelle herstellen können. Dadurch wird Sprache aber als Medium von Meinungsaustausch und öffentlichem Diskurs zu einer Ware, die keiner demokratischen Kontrolle mehr unterliegt. Und das finde ich gefährlich.
ZEIT ONLINE: Techexperten mahnen neuerdings zu einem KI-Moratorium. Wäre das eine Lösung?
Bajohr: In der Techbranche warnt man schon lange davor, dass die KI zu intelligent werden und dann die Menschheit ersetzen könnte. Und deshalb will man eine KI schaffen, die aligned, also in Harmonie mit den menschlichen Interessen ist. Aber auch hier gilt: Das wird als neutrales, rein technisches Projekt betrachtet und eben nicht als Gegenstand von Politik. Dabei wäre diese Politisierung unbedingt notwendig. Denn jedes Sprachmodell muss immer gefiltert werden, muss zensiert werden, muss trainiert werden. Und in welche Richtung man es drängt, ist eine politische Entscheidung. Man muss sich klar werden, dass die Macht über Sprache und Sprachmodelle in Zukunft die Macht über Politik sein wird. Und die Aushandlung der Kriterien muss öffentlich sein. KI-Sprachmodelle haben selbst keinen Sinn fürs Politische.
Schreibe einen Kommentar