27.08.2024 11:59
epd Linda Zervakis fremdelt mit dem eigenen Avatar. Sie lacht oder kichert unsicher, verdreht auch mal die Augen und beschwert sich über die schlechten Witze von "KI-Linda". Sprechproben von wenigen Minuten genügen, um mithilfe der Software ChatGTP eine digitale Linda Zervakis zu kreieren, die fürs Publikum von ProSieben und Joyn als Hologramm zu sehen ist. "KI-Linda" im seriösen blauen Anzug redet meist ziemlich hölzern, was die umgangssprachlichen Ausrutscher umso komischer wirken lässt. Mit einem schmissigen "Vamos" beendet sie zum Beispiel einen drögen Satz über die Herausforderung der Zukunft, was die Frage aufwirft, wieso der Algorithmus auf so eine Idee kommt. Wahrscheinlich weil Linda Zervakis jetzt nicht mehr bei der "Tagesschau" arbeitet, sondern als journalistisches Aushängeschild von ProSieben.
Sympathisch ist, dass sich das "ProSieben Thema" weder in apokalyptischen Warnungen noch in hymnischen Verehrungen von Künstlicher Intelligenz ergeht, sondern nach praktischen Beispielen dafür sucht, wie Künstliche Intelligenz im politischen Alltag bereits eingesetzt wird und welche Rolle sie in der Kommunikation zwischen Politik und Gesellschaft spielen könnte. In der Schweiz nutzte ein Kandidat mit Sprachbehinderung KI-Software, um sich in Wahlkampf-Videos verständlicher ausdrücken zu können - und wurde in den Nationalrat gewählt. Die ukrainische Regierung lässt einen weiblichen Avatar offizielle Mitteilungen verlesen. In Rumänien wurde ein Avatar sogar Regierungsberater. Die Aufzählung weiterer Beispiele führt nach Taiwan, Indien, Pakistan und Großbritannien. Allerdings bleibt es bei einem flüchtigen Blick über den Tellerrand.
Dass KI im politischen Alltag hilfreich sein kann, leuchtet sofort ein, wenn man das Handyvideo von Anke Domscheidt-Berg gesehen hat. Die Bundestagsabgeordnete der Linken hat das auf Tischen aufgestapelte Material für die Plenarsitzung eines einzigen Tages gefilmt. "Niemand kann das alles lesen", sagt sie über die Papierhaufen, die kein Ende nehmen. Domscheidt-Berg erklärt, sie lasse sich lange Texte von KI-Programmen zusammenfassen. Auch dies wirft einige Fragen auf, aber noch drängender ist unter anderem das Problem, dass KI den missbräuchlichen Umgang mit Bildern erleichtert.
Leider gerät das Zervakis-Interview mit dem AfD-Bundestagsabgeordneten Norbert Kleinwächter, der in sozialen Medien ein KI-generiertes Bild samt Schlagzeile "Nein zu noch mehr Flüchtlingen!" veröffentlichte, etwas lahm. Kleinwächter verteidigt sich mit der Aussage, die "Illustration" sei derart überzeichnet und offensichtlich unecht, dass er eine Kennzeichnung nicht für nötig gehalten habe. Er habe aus der Sache gelernt und kennzeichne jetzt "sehr offensiv". Das Problem ist jedoch weniger, dass der AfD-Politiker die Montage künstlich erzeugter Porträts nicht als solche kennzeichnete, sondern dass das Bild mit aggressiven Männer-Gesichtern rassistische Ressentiments bedient. Das bringt Zervakis aber nicht zur Sprache.
Auch der Aussage Kleinwächters, er habe bei den Posts seiner AfD-Kollegen noch keine Fehlinformationen festgestellt, widerspricht Zervakis nicht. Das überlässt sie "KI-Linda", die nachträglich auf Studien und Faktenchecks verweist, wonach "einige der von der AfD verbreiteten Behauptungen nicht der Wahrheit entsprechen". Vielleicht hätte der Avatar besser gleich selbst das Interview geführt. Oder zumindest mit einer Art Faktencheck in Echtzeit assistiert. Das kommt vielleicht noch, die Einsatzmöglichkeiten der KI im Journalismus wären ein eigenes Thema.
Sicher ist allerdings, dass KI nun die mithilfe von KI angerichteten Missstände bekämpfen soll. Das deutsche Forschungsprojekt Fake-ID soll Deepfakes aufspüren, und "extra aus den USA angereist" ist Steven Hyde, der für eine Lügendetektor-KI wirbt. Das Programm bietet keinen Faktencheck, sondern analysiert die Art zu sprechen. Wenn die Lügen von Politikern in Sekundenschnelle aufgedeckt würden, hofft Hyde, könnten sie in Zukunft vorsichtiger auftreten. Bekanntlich kümmert es jedoch manche Politiker und ihre Anhänger keinen Deut, ob irgendjemand ihre Lügen als solche erkennt und benennt. Derweil wurde Lügendetektor-KI schon an europäischen Grenzen eingesetzt, um herauszufinden, ob Asylsuchende die Wahrheit sagen.
Dem interessanten Sammelsurium an Beispielen fehlen notgedrungen Fokus und Tiefe. Meist möchte man gerne mehr erfahren, aber dann ist der Film schon beim nächsten Thema und Interview angelangt. Deutlich wird allerdings: Künstliche Intelligenz soll nicht zuletzt die Sehnsucht nach einem neutralen, objektiven Allwissenden befriedigen, der die Politik ideologiefrei berät und das Volk ohne Eigeninteresse aufklärt.
ProSieben macht natürlich auch den Praxistest: Gleich mehrfach muss sich der Zervakis-Avatar in der Wirklichkeit behaupten und Fragen von Bürgerinnen und Bürgern beantworten. So begleitet Zervakis die Thüringer Linken-Abgeordnete Donata Vogtschmidt in die Erfurter Innenstadt, wo "KI-Linda" bei einer Straßen-Umfrage ("Was bewegt euch?") eine Brücke schlagen soll zwischen Politik, Medien und Bürgerschaft. Das gelingt so mittelprächtig, weil auch ein Avatar in Zervakis' Laptop nicht den "Lügenpresse"-Vorbehalt aus der Welt schafft. Am Ende hat "KI-Linda" immerhin einen etwas skurrilen Vorschlag gegen die Politikverdrossenheit: "Wahllokale in Cafés und Parks - dann wird das Wählen vielleicht wieder zur beliebtesten Freizeitbeschäftigung nach dem 'Tatort'-Schauen." Die Demokratie retten wird das wohl eher nicht, da "kommt es jetzt auf uns Menschen an", sagt die echte Linda Zervakis - eine wenig überraschende, aber zutreffende Erkenntnis.
infobox: "Kann KI die Demokratie retten?", Reportage mit Linda Zervakis, Executive Producer: Anja Buwert, Caspar Fischer, Thilo Mischke, Produktion: PQPP2 (ProSieben, 20.8.24, 20.15-22.25 Uhr, und bei Joyn)
Zuerst veröffentlicht 27.08.2024 13:59 Letzte Änderung: 29.08.2024 13:12
Schlagworte: Medien, Fernsehen, Kritik, Kritik.(Fernsehen), KProSieben, Reportage, Zervakis, Gehringer, NEU
zur Startseite von epd medien