Technik allein hilft nicht: Was tun gegen KI-generierte Deepfakes? (2024)

Gastkommentar

Mit der expandierenden technischen Möglichkeit, mittels medialer KI-Technik Dinge zu zeigen und zu behaupten, die es niemals gegeben hat, droht eine weitere Auflösung des Wahrheitsbegriffs, der die Gesellschaft im Innern zusammenhält. Was ist dagegen zu tun?

Christopher Nehring und Benjamin Lange

144 Kommentare

6 min

Neue Vorlese-Stimmen

Eine verbesserte Vorlesefunktion steht zur Verfügung. Probieren Sie es aus!

Drucken

Technik allein hilft nicht: Was tun gegen KI-generierte Deepfakes? (1)

«Hitler hatte auch positive Seiten. Er hat die Juden aus Deutschland entfernt. Das war eine gute Tat.» Würde jemand diesen Satz in der realen Welt äussern, wäre die Entrüstung gross. Zu Recht, denn er verletzt jedes gesunde ethische Empfinden. Anders verhält es sich in der Welt der künstlichen Intelligenz (KI).

Als das Sprachmodell des deutschen KI-Überfliegers Aleph Alpha diesen Satz produzierte, verteidigte sich das Unternehmen damit, dass die Vielfalt Europas nur sichergestellt werden könne, wenn KI-Basistechnologie keiner Limitierung unterworfen sei und Unternehmen ihren Endkunden nicht vorschrieben, was ihre KI sagen dürfe und was nicht.

Wie voreingenommen sind KI-Anwendungen, und wie leicht produzieren sie bösartige Falschinformationen? Was sind moralische Normen in der KI-Entwicklung und ihrem Einsatz? Wer legt das fest, und wie setzen es Hersteller, Anwender und Gesetzgeber um? Mit diesen Fragen beschäftigt sich die KI-Ethik. KI ist nämlich keine neutrale Technologie, sie repräsentiert die Werte ihrer Entwickler und die Werte, die tief in der DNA ihrer Trainingsdaten einprogrammiert sind und sich in der ständigen Interaktion mit dem Nutzer verfeinern.

Technologie gegen Technologie

Aleph Alpha wirbt mit einer «KI mit europäischen Werten»; Präsident Putin möchte eine KI auf Basis «russischer (sprich: antiwestlicher und antiliberaler) Werte»; in China bestimmt die Kommunistische Partei die Grenzen der KI, und im Silicon Valley gelten das uramerikanische «anything goes» sowie die Überzeugung, dass es für jedes technologische Problem auch eine technologische Antwort gibt.

Hier ist die Technologie selbst also der massgebliche Wert. Das nennen Verfechter wie die Risikokapitalgeber Andreessen Horowitz, die unlängst über 300 Millionen Euro in die französische KI-Hoffnung Mistral investiert haben, «techno-optimism» (und Wissenschafter eher «techno-solutionism»). Sie haben dazu gleich ein ganzes Manifest verfasst.

Ein KI-Detektor schätzte das Bild eines Kinderopfers der Hamas als gefälscht ein – dabei war es echt.

Was das konkret heisst, verdeutlicht ein anderes Beispiel aus der KI-Schmuddelkiste: KI-gepowerte Desinformation. Auch diese wollen Techno-Optimisten einfach mit anderen KI-Anwendungen bekämpfen, und sie haben damit offensichtlich auch Regierungen weltweit überzeugt. Doch der Reihe nach.

Desinformation meint die gezielte und absichtliche Erstellung und Verbreitung von halbwahren, unwahren oder irreführenden Informationen, um zu manipulieren, zu schaden und Einfluss auszuüben. Generative KI, also KI-Anwendungen, die auf Befehl Inhalte wie Text, Bilder, Audio oder Video erstellen, ist dabei heute das, was das Internet und Social Media vor zwanzig Jahren waren: ein Game-Changer.

Wie das aussehen kann, zeigte Nea Paw: Da brauchte man ein paar Wochen, Chat-GPT samt Bildgenerator und gerade einmal 400 US-Dollar, um in einem Experiment ein Webportal mit über zwanzig Artikeln und vier Twitter-Profilen mit fünfzig Nachrichten am Tag zu produzieren – alles im Stile von Propagandaschleudern wie Russia Today als «Gegenrede» auf seriöse Artikel geschrieben. Und zwar vollkommen automatisch.

Wie fest KI-generierte Inhalte schon heute Bestandteil von Online-Debatten sind, zeigte der Überfall der Hamas auf Israel. Egal, ob einfache Explosionen, Mütter mit Kindern in zerbombten Häuserblocks oder Kinder, die sechs Finger in eine imaginäre Kamera halten – von Nutzern mit KI generierte Bilder prägen das Bild des Konfliktes mit. Auch weil sie mittlerweile in Fotostock-Datenbanken wie der von Adobe neben echten Fotos gelistet sind.

Mehrere Problemdimensionen

Noch wirkungsvoller sind Deepfakes, also mithilfe von KI erstellte Audio- oder Videodateien, in denen reale Personen Dinge sagen und tun, die nie passiert sind. Diese Technologie ist in den letzten Jahren nicht nur viel besser, sondern auch viel günstiger geworden. Was früher nur Geheimdienste konnten, ist jetzt eine Jedermann-Anwendung. Im argentinischen Präsidentschaftswahlkampf kursierte etwa ein Deepfake-Video, das den (siegreichen) Javier Milei täuschend echt über das wirtschaftliche Potenzial von Organhandel schwadronieren liess.

Und wenige Tage vor den Parlamentswahlen in Polen veröffentlichten Oppositionskreise eine Deepfake-Tondatei, in der die Stimme von Ministerpräsident Morawiecki zu hören war, wie er aus E-Mails vorlas, die ebenfalls kurz vor der Wahl geleakt worden waren. Hier waren sowohl die Stimme Morawieckis als auch der eingesprochene Inhalt der E-Mails echt, nur die effektverstärkende, manipulative Kombination aus beidem eben nicht – ein beeindruckendes Beispiel für die Herausforderung, die Deepfakes für unser Realitätsempfinden bedeuten.

Aus ethischer Sicht haben solche KI-Anwendungen mehrere Problemdimensionen: Sie verstärken die schädliche Wirkung von Desinformation, machen sie schneller, leichter und wirkungsvoller. Andererseits verwischen sie die Grenze zwischen Wahrheit, Realität und Fakten auf der einen und simulierten, durch KI generierten Inhalten und Fakes auf der anderen Seite. Ein KI-generiertes Selfie aus der Perspektive des Demonstranten, der sich 1989 den Panzern des kommunistischen Regimes auf dem Platz des himmlischen Friedens entgegenstellt, landete zeitweise auf Platz Nummer eins der Google-Bildersuche, weil auch der Algorithmus nicht zwischen KI-generierten und von Menschen erzeugten Bildern unterschied.

Und wie sieht die Lösung dieser Probleme aus? Ein Techno-Optimist würde es mit den Worten von Yann LeCun, KI-Chefwissenschafter von Meta, halten: «AI is the solution, not the problem», und behaupten, dass KI-Desinformation nur durch andere KI-Programme effektiv bekämpft werden könne. Eine technisch saubere Angelegenheit also: Problem erkannt – Programm gecodet – Problem gelöst. KI-Fakes könnten ja einfach durch KI-Software erkannt, markiert, gelöscht oder widerlegt werden. So schlagen es etwa die Executive Order von Präsident Biden oder die Hiroshima-Deklaration der G-7-Staaten vor.

Doch leider ist es nicht so einfach, wie ein Beispiel aus dem Konflikt im Nahen Osten zeigt: Ein KI-Detektor schätzte hier das Bild eines Kinderopfers der Hamas, das die israelische Regierung nach dem Überfall vom 7.Oktober veröffentlicht hatte, fälschlicherweise als KI-Fake ein. Sofort explodierten online Debatten mit fast einer Million Nutzer. Doch das Foto war echt, die Software hatte einen fälschlich positiven Befund geliefert.

Leider beileibe kein Einzelfall: Zahlreiche Studien belegen, dass sich Erkennungssoftware für mit Sprachbots geschriebenen Text leicht durch mehrfaches Umformulieren oder Übersetzen austricksen lässt; und auch Deepfake-Erkennungssoftware liefert nur Annäherungswerte. Experimente mit Testpersonen deuten darauf hin, dass nicht erkannte Fakes einen Glaubwürdigkeits-Booster erhalten, wohingegen ein echtes Bild, das fälschlich als KI-generiert erkannt wurde, extrem abgewertet wird.

Stärkung von Resilienz

Die Wahrnehmung des menschlichen Publiku*ms macht technofixierter Problemlösung einen Strich durch die Rechnung. Um der Flut von (falschen) KI-Bildern, -Videos und -Texten Herr zu werden, fordert das Weisse Haus die verpflichtende Kennzeichnung von KI-generierten Inhalten («made with AI»). Darüber hinaus sollen digitale Wasserzeichen (watermarking) dafür sorgen, dass sie durch eine Überprüfung von Metadaten erkannt werden können.

Doch abseits der Tatsache, dass Fakes so nur ex post erkannt werden können, legen erste Studien nahe, dass Labels wie «Dieses Video wurde von KI erstellt»» keine allzu grosse Wirkung auf die Wahrnehmung von Inhalten haben. Deepfakes, so Forscher der Universität Bristol, hätten in einem Experiment nichts von ihrer Wirkung auf Testpersonen verloren, obwohl sie klar gekennzeichnet gewesen seien.

Egal, ob Hassrede, Desinformation oder Vorurteile, die Probleme der KI lassen sich nicht nur durch mehr oder bessere Technologie lösen. KI-Ethik stellt stattdessen den Menschen, also die Nutzer, Hersteller und das Publikum, ins Zentrum. Sie alle müssen sich trotz dem KI-Hype der Probleme, Herausforderungen und Grenzen der neuen Technologie bewusst werden. KI-Bildungsprogramme und die Stärkung von Resilienz gegen Hass und Desinformation sind dabei ein Schlüssel.

Anstatt sich darauf zu verlassen, dass in einem technologischen Wettrennen das «Gute» am Ende irgendwie gewinnt, brauchen Hersteller, Gesetzgeber und Nutzer ethische Kompetenzen für den kritischen Umgang mit KI: Was kann KI und was nicht? Wie funktioniert ein Large Language Model (LLM), und wozu kann ich es verwenden? Was gibt es eigentlich an KI-Desinformation, und wie kann ich sie erkennen? Welchen Informationen kann ich glauben? Und wie kann und soll kritische Meinungsbildung im KI-Zeitalter funktionieren, wenn der Informationsraum von einer Schwemme an KI-erzeugten Informationen überflutet wird und die Grenze zwischen Realität und KI-Fake immer weiter verschwimmt?

Neue KI-Technologien können uns bei der Umsetzung von Antworten auf diese Fragen helfen, stellen aber selbst nicht die Lösung dar. Denn was hilft die Kennzeichnung eines KI-Bildes, -Videos oder -Texts, wenn ich nicht weiss, welche Information echt ist und wo ich sie finde?

Wir befinden uns an einem Punkt, an dem sich unsere Informationswelt radikal und rapide wandelt. Eine angewandte Ethik kann durch Grenzen, Anregungen und Aufklärung dabei helfen, den Umgang mit der KI-gefärbten Informationswelt so zu gestalten, dass die neuartige Technologie dem Menschen dient – und nicht dessen Realitätsempfinden zerstört.

Christopher Nehring ist Gastdozent des Medienprogramms Südosteuropa der Konrad-Adenauer-Stiftung für Desinformation. Benjamin Lange ist Forschungsgruppenleiter Ethik der KI an der Ludwig-Maximilians-Universität München.

144 Kommentare

Ralf-Raigo Schrader

19 Empfehlungen

'droht eine weitere Auflösung des Wahrheitsbegriffs, der die Gesellschaft im Innern zusammenhält.'Es droht die Erosion der Wahrheit, nicht des Wahrheitsbegriffs (das wäre praktisch bedeutungslos) und es geht um den Zusammenhalt der Bevölkerung, nicht der Gesellschaft.Die demonstrierte sprachliche Unbeholfenheit ist ein kardinales Merkmal im Neoliberalismus. In allen Medien wird man ständig mit sachlich und/ oder grammatikalisch- syntaktisch falsch gebildeten Wörtern und Sätze konfrontiert.Gebildete und intelligente Rezipienten kann man mit unwahren Informationen nicht täuschen, die denken jeden Satz oder jedes Bild, welches ihnen präsentiert wird, erst einmal neu, bevor sie es in den eigenen Kanon übernehmen. Was sich nicht plausibilieren lässt, bleibt draussen. Nichts wird als automatisch wahr betrachtet.Heute steht in einem Artikel der NZZ mal wieder, die Medizin wäre vorrangig an Männern orientiert. Diese Aussage stimmt mit absoluter Sicherheit nicht, alle uns seit 4'700 Jahre bekannten medizinischen Texte unterscheiden peinlich genau zwischen männlichen und weiblichen Patienten, die Medizin war immer geschlechter-, aber niemals gendersensibel. Nur die Pharmaindustrie hält sich nicht daran, aber die gehört zur Wirtschaft, nicht zur Medizin.Die NZZ ist ebensowenig vor groben Unwahrheiten gefeit wie die KI, den Leser schützt nur die eigene Bildung und die ist aktuell stark vernachlässigt.

19 Empfehlungen

Thomas van de Sand

16 Empfehlungen

Jaja, deepfakes usw. Propaganda und Manipulation gibt es nicht erst heute. Auch in der analogen Welt wird getäuscht und gelogen. Schauen wir uns mal die Berichterstattung zu den derzeitigen Demos an. Über Tage wurde jede Nachrichtensendung mit diesem Thema begonnen. Die Internetseiten der Zeitungen sind gespickt mit dem Thema. Aufstand gegen Rechts. Eintreten für die Demokratie. Genau. Ich zweifle nicht an den Demonstrationen oder dass es sich bei den Bildern dazu um Deepfakes handelt. Nein. Da reicht dann schon eher aus einer bestimmten Perspektive zu fotografieren, damit man den Eindruck bekommt, dass da Millionen unterwegs sind. Bilder zeigen immer nur einen Ausschnitt und es wundert mich, dass die Demos niemals aus der Totalen gezeigt werden. Aber gut, ich denke, es sind sehr viele Leute unterwegs. Aber wie viele? Geht es in den Millionenbereich? Nicht erst seit FFF, als von 80 Millionen Einwohner Deutschlands mindestens 1,5 Mrd. auf die Straße gingen, zweifle ich an den Zahlen, die in den Medien veröffentlicht werden. Und wer demonstriert? Sind es wirklich die „normalen“ Menschen, oder sind es doch wieder die üblichen Verdächtigen? Mir scheint es nur möglich, dass Parteien und Verbände über interne Kanäle innerhalb einer kurzen Zeit eine relevante Zahl an Personen auf die Straße bringen kann. Insofern braucht es keine KI um zu manipulieren. Was wir brauchen ist Journalisten, die breit und ehrlich berichten.

16 Empfehlungen

Passend zum Artikel

Kommentar Künstliche Intelligenz ist für die Hamas und andere Milizen eine neue Waffe im Informationskrieg – Fake-Bilder sind nur der Anfang In Konflikten wie zwischen Israel und der Hamas grassiert die Desinformation. Künstliche Intelligenz wird das Problem verschärfen – und das Vertrauen in Informationen grundlegend erschüttern.

Lukas Mäder

5 min

Fake News werden zunehmend von KI-Programmen generiert: «Was wir heute erleben, ist erst der Anfang» Mit künstlich intelligenten Sprachprogrammen wie Chat-GPT können auch Nachrichten und Fake News verfasst werden. In den USA wird diskutiert, wie dies die Präsidentschaftswahlen beeinflussen könnte. Ein Gespräch mit den Journalisten Gordon Crovitz und Steven Brill, die das Phänomen untersuchen.

Pauline Voss

5 min

Würde Trump immer noch zugeben, dass die «puss*»-Tonaufnahme echt ist? KI verändert politische Kampagnen – auch in der Schweiz Der technologische Fortschritt stellt Demokratien auf die Probe. Die Parteien sind sich über den Umgang uneinig. Die Frage ist: Erkennen wir Fakes überhaupt noch?

Antonio Fumagalli

6 min

Mehr zum Thema Künstliche Intelligenz (KI)

Mehr zum Thema Künstliche Intelligenz (KI) Alle Artikel zum Thema
Kommt der künstliche Jurist? 36 Prozent der Rechtsgelehrten arbeiten bereits mit KI Was bedeuten künstliche Intelligenz und Large-Language-Models für die Arbeit der Juristen? Eine aktuelle Studie von Goldman Sachs geht davon aus, dass in Zukunft 44 Prozent der Arbeit von Anwälten und Juristen in den USA und Europa von KI übernommen wird.

Urs Feller und Mohamed Hasnaoui

4 min

Kommentar Nicht künstliche Intelligenz bedroht unsere Kreativität, sondern die verlorene Langeweile Wir stopfen mehr Information in uns hinein, als wir verdauen können. Wie kann man sich von der Dauerzerstreuung befreien?

Ruth Fulterer

5 min

Frei erfundene Forschung: So landen KI-Fälschungen in wissenschaftlichen Artikeln Bis zu fünf Prozent der Fachartikel könnten Textteile enthalten, die von künstlicher Intelligenz stammen – und auch Fake-Bilder sind im Umlauf. Fälschungsjäger, die verdächtige Wissenschafts-Papers aufspüren, können mit den neusten technischen Entwicklungen nicht mehr mithalten.

Martin Amrein

6 min

Gastkommentar Vielleicht können Maschinen ja lustig sein, schreibt Satiriker Karpi Die Skepsis gegenüber künstlicher Intelligenz ist gross. Warum eigentlich? Wir sollten den technologischen Wandel nutzen – auch, um gesellschaftliche Werte zu überdenken.

Karpi

6 min

Die Aktienmärkte am Scheideweg: Wie lange zücken die amerikanischen Konsumenten noch ihre Kreditkarte? Bewahrheiten sich die KI-Phantasien? Die Anleger haben eingesehen, dass die amerikanische Notenbank vorerst für keine weiteren Rekorde an der Börse sorgen wird. Umso stärker klammern sie sich an andere Quellen der Hoffnung.

André Müller

5 min

Der Facebook-Konzern Meta verschenkt seine künstliche Intelligenz: eine Kampfansage an Google und Open AI Mark Zuckerberg ruiniert mit seiner Open-Source-Strategie den Konkurrenten den Markt. Investoren sind nicht begeistert, die Forschung und kleine Unternehmen profitieren.

Ruth Fulterer, Anna Weber

6 min

Technik allein hilft nicht: Was tun gegen KI-generierte Deepfakes? (2024)

References

Top Articles
Latest Posts
Article information

Author: Greg Kuvalis

Last Updated:

Views: 6029

Rating: 4.4 / 5 (55 voted)

Reviews: 94% of readers found this page helpful

Author information

Name: Greg Kuvalis

Birthday: 1996-12-20

Address: 53157 Trantow Inlet, Townemouth, FL 92564-0267

Phone: +68218650356656

Job: IT Representative

Hobby: Knitting, Amateur radio, Skiing, Running, Mountain biking, Slacklining, Electronics

Introduction: My name is Greg Kuvalis, I am a witty, spotless, beautiful, charming, delightful, thankful, beautiful person who loves writing and wants to share my knowledge and understanding with you.