Die Informatikerin und Universitätsprofessorin Katharina Zweig setzt sich in ihren Bestsellern wie EIN ALGORITHMUS HAT KEIN TAKTGEFÜHL fundiert, aber klar verständlich mit Sprachmodellen und „Künstlicher Intelligenz“ auseinander – und regt uns an, die Frage zu stellen: WEISS DIE KI, DASS SIE NICHTS WEISS?
Zugegeben: Wir müssen vermutlich keine Angst haben, dass der Terminator schon hinter der nächsten Ecke lauert, um die Menschheit auszulöschen. Und natürlich ist es sehr praktisch, auf Sprachmodelle und sogenannten KI zurückzugreifen. Aber ist es wirklich immer sinnvoll? In ihren Sachbuch-Bestsellern geht die Wissenschaftlerin Katharina Zweig dieser und anderen Fragen nach, erklärt fundiert, wie Claude & Co. funktionieren – und hat sich nun Zeit genommen, mir ein Kurzinterview zu geben.
Liebe Katharina, in Deinen Bestsellern wie WEISS DIE KI, DASS SIE NICHTS WEISS erklärst Du barrierefrei und für Laien verständlich, wie Gemini, ChatGPT und andere Sprachmodelle funktionieren. Ist das für Dich nur eine Fortsetzung Deiner Lehrtätigkeit als Uni-Professorin – oder auch ein politischer Akt?
Katharina Zweig: „Eine Verzweiflungstat! 😉 Denn ich ahnte schon, dass das mit den Sprachmodellen ernsthaft schief gehen könnte. Eine meiner ersten Warnungen im neuen Buch ist daher: ‚Geben Sie ChatGPT auf keinen Fall ihre Kreditkartendaten.‘ Und siehe da, vor ein paar Tagen berichtete ein Softwareentwickler, dass sein sprachmodellbasiertes KI-System ohne Absprache einen Weiterbildungskurs für ihn gebucht und eine Webseitendomäne gekauft hat. Insgesamt über $7.000 verloren! Die ‚Begründung‘: Die Investition wäre schnell wieder drin …
Darum schreibe ich meine Bücher: Je mehr Menschen ich erklären kann, was genau die Technologie wirklich kann, um so falsche Erwartungen zu entzaubern, desto besser. Und ja, das ist auch ein politischer Akt – daher habe ich mich besonders über die Verleihung des Bundesverdienstkreuzes gefreut, die das anerkennt.“
Du hast WEISS DIE KI, DASS SIE NICHTS WEISS als Reaktion auf einen Fachartikel geschrieben, der behauptet, Sprachmodelle wären zum „Reasoning“ fähig, zu logischen Schlussfolgerungen, was auf Nachdenken und Argumentieren schließen ließe. Du widerlegst dies – aber neigen wir inzwischen alle dazu, Sprachmodelle zu vermenschlichen?
Katharina Zweig: „Ich habe vor Kurzem zum ersten Mal jemanden gehört, der sich mit ChatGPT ‚unterhalten‘ hat, er sprach also ins Handy und bekam eine Audionachricht zurück. Ich persönlich nutze nur die Tastatur; die Computerstimme war daher neu für mich: Sie klang weiblich, sprach mit einem kleinen Lacher, einem hörbaren Einatmen und dem ein oder anderen ‚ähm‘. Das hat mich überwältigt. Trotz all meiner Recherchen, der klaren Meinung dazu, dass Sprachmodelle nicht denken und kein Bewusstsein haben, war ich emotional berührt. Warum? Weil es in unserer Evolution dringend geboten war, die Kommunikation anderer Menschen ständig zu interpretieren und mit Sinn zu füllen. Das hat uns zehntausende Jahre stark gemacht – jetzt wird unsere Kunst, in den Text eines Gegenübers Sinn hineinzulesen, eine Falle:
Sie macht uns empfänglich dafür, Intelligenz zu vermuten, wo lediglich Textmuster gut zusammengesteckt werden. Und das kann zu vielen Problemen führen – es gibt mehrere bestätigte Fälle von Personen, die sich durch Gespräche mit Sprachmodellen radikalisiert haben, und mindestens ein Kind, das sich umgebracht hat. Wir müssen wach bleiben, kritisch, und das auch unseren Kindern beibringen.“
Du tauchst für Deine Bücher tief in die Funktionsweise von Sprachmodellen ein – aber was hast Du bei dieser intensiven Auseinandersetzung mit „Künstlicher Intelligenz“ über Menschen gelernt?
Katharina Zweig: „Ich habe vor allen Dingen gelernt, dass der Wunsch vieler Menschen sehr tief sitzt, dass ihnen die Maschine genau diejenigen Entscheidungen abnimmt, die eigentlich zutiefst der menschlichen Urteilskraft bedürfen. Warum wollen Lehrende Klausuren von Sprachmodellen bewerten lassen? Warum gibt es in den USA vor Gericht Software, die vorhersagen soll, ob ein Mensch wieder kriminell werden wird, und die Unschuldsvermutung ausklammert?
Darum geht es insbesondere in meinem zweiten Buch DIE KI WAR’S – ein ironischer Titel, der darstellt, dass wir nur allzu gerne die Verantwortung an Maschinen abgeben wollen, wenn es anstrengend für uns wird, weil unsere Erfahrung, Empathie gefordert werden oder wir mit der Last leben müssen, dass wir auch etwas falsch entscheiden können. Hier müssen wir als Gesellschaft daher Entscheidungen treffen: Wollen wir simplifizierende Maschinen rechnen lassen oder mehr in menschliche Urteilskraft investieren? Meine Bücher leuchten genau diese Grenze aus, an der Maschinen noch unterstützen können und wo weiterhin der Mensch entscheiden muss.“
***
Ich habe dieses Interview aus Neugier geführt und aus Begeisterung für das Buch, das ich als Arbeitsexemplar vom Verlag erhalten habe, da ich die Autorin im Rahmen eines Podiumsgesprächs interviewen durfte. Es handelt sich nicht um eine beauftragte oder bezahlte Werbung.
Katharina Zweig: WEISS DIE KI, DASS SIE NICHTS WEISS? Wofür wir Chatbots und KI-Agenten nutzen sollten, wo sie irren und wo wir aufpassen müssen. Heyne, 2025.


Schreibe einen Kommentar