Fernsehstudio, Stern TV. Close-up auf einen gestandenen Mann mit Krippenspiel-Engel-Frisur. „Ich war auch selbst überrascht, als über Nacht die Haarpracht wieder da war.“, erklärt Olaf Scholz stolz. „Und im Gegensatz zu Linde: all natural. Also ich sag mal, man merkt schon die Blicke auf dem Flur im Bundestag, und da wird einem auch gerne mal hinterhergepfiffen oder „Goldlocke“ gerufen.“. Und als wäre das Glow-up des schelmischen Bundeskanzlers durch diese Frisur allein nicht schon drastisch genug, rabattiert er seine Idee vom guten Geschmack noch weiter mit einem stolz-geöffneten Khaki-Hemd, durch das nebst einer Sahara-gebräunten Brust eine Lederkette mit Anhänger glitzert, die Geschichten von Bären-Angriffen und Wildschwein-Sichtungen erzählen möchte. Oder auch: Was hat Andreas Kieling getan, dass man ihm einfach Olaf Scholz auf das Gesicht setzt?
Was ist hier passiert?
Ganz einfach: Per sogenannter Face Swap-Technologie wurde in einem Video Andreas Kielings Gesicht durch das von Olaf Scholz ersetzt. Die Stimme wurde durch Voice Conversion erstellt und hinzugefügt. Hochtechnologie? Ja, schon, aber durch niedrigschwellig zu bedienende Tools auch für Tech-Laien problemlos nutzbar.
Dieses Beispiel zeigt den Unterhaltungswert von künstlicher Intelligenz und Deepfakes, illustriert aber auch, welches Potenzial für Unsinn in dieser Technologie schlummert – eine Technologie, die in den falschen Händen sehr unangenehm werden kann. Während es früher nur möglich war, prominente Personen auf dem Papier mit erfundenen Zitaten zu diskreditieren, kann man ihnen heute problemlos beliebige Sätze in den Mund legen – im wahrsten Sinne des Wortes – und damit ein neues Level an glaubhaften Fake-News verbreiten. Die Möglichkeiten, Gesichter, Mimik, Stimmen und Tonlagen zu imitieren, sind bereits heute sehr solide und einfach sowie kostengünstig zugänglich.
Das Katz- und Maus-Spiel der Code-Entwickler
Basierend auf den wissenschaftlichen Entwicklungen rund um neuronale Netze der letzten Jahre gilt es als sicher, dass wir als Menschen zukünftig nicht mehr auf den ersten Blick werden erkennen können, ob wir eine echte Video-Aufnahme oder ein Fake-Video betrachten. Unsere Menschenkenntnis kommt hier an ein natürliches Limit, welches nur noch von speziellen Detektions-Programmen überwunden werden kann. Diese Software ist fähig, automatisiert und zuverlässig zu arbeiten – solange, bis das Datenmanipulations-Programm Parameter verändert bzw. addiert, die von den aktuellen Detektionsmethoden unberücksichtigt bleiben. Das klassische Katz- und Maus-Spiel der Code-Entwickler.
Es ist also davon auszugehen, dass die Relevanz der Deep-Fake-Technologie immerhin so lange wachsen wird, wie es gelingt, sie wirksam zu optimieren – insbesondere durch die Verbreitung jener in den etablierten sozialen Medien, in denen sich Fakenews zwischen trüben Algorithmen und meist niedrigem Gültigkeitsanspruch oft nahezu ungehindert populär schaukeln können. Synchron dazu wird es zunehmend wichtig, logisches Kritikdenken zu kultivieren, das reflektiert nach Wahrheit und Gerechtigkeit fragt. Stichwort: Förderung politischer Bildung; Stichwort: Unterstützung seriöser und qualitativer Publisher.