Newsletter

Deep Fake

Foto: © Fotolia/Lux Blue

Nach einem Eklat während einer Pressekonferenz von US-Präsident Donald Trump hat das Weiße Haus dem beteiligten CNN-Reporter Jim Acosta die Akkreditierung „bis auf Weiteres“ entzogen. Ein Video diente als Rechtfertigung für diesen Schritt. Darauf war zu sehen, wie eine Praktikantin Acosta das Mikrofon entziehen wollte und Acosta den Versuch abwehrte. Aber offenbar hatte man auf dem Video Acostas Handbewegung digital beschleunigt, so dass sie der Praktikantin gegenüber aggressiver wirkte als sie es in Wahrheit war.

Zumindest wurde das in den Medien so kolportiert, ein Rest Unsicherheit bleibt in mir. Und das ist mein Problem. Wir wissen von Fake News und von Carmen Geiss, wie leicht sich Fotos manipulieren lassen. Aber wir neigen trotzdem dazu, Videos und Audio noch als Nachweis für die Realität anzuerkennen. Das dürfte bald enden, spätestens mit Deep Fake – für mich das am meisten unterschätzte Phänomen 2018.

Die Technologie setzt Künstliche Intelligenz ein, um Video- und Audioinhalte zu erschaffen, in denen Personen Dingen tun und sagen, die sie in Wahrheit nie getan oder gesagt haben. (Hier gibt es ein Beispiel, in dem Barack Obama sich ungebührlich über Donald Trump äußert.) Die Algorithmen im Hintergrund werden dabei ständig schlauer, das Ergebnis realistischer, und damit ist die Manipulation kaum noch zu enttarnen. Deep Fake ist die nächste Evolutionsstufe manipulierter Inhalte, die zudem absehbar für jedermann nutzbar sein wird und sich in vernetzten Medien schnell verbreitet.

Diese – vielleicht etwas dystopisch geratene – US-Studie aus dem Sommer lieferte mir dazu den Einstieg. Zwar malen die Autoren auch positive Szenarien mit Anwendungen in der Bildung, in der Kunst oder beispielsweise in der Filmindustrie – erinnern Sie sich an die verstorbene Carrie Fisher in Star Wars. Aber der denkbare Missbrauch liegt ebenso auf der Hand: Deep Fake vereinfacht Identitätenklau, wie es längst in Promi-Porno-Fakes geschieht, eine Branche, die uns im Übrigen in der Kommunikation traditionell technologisch den Weg weist.

Polizeichefs akzeptieren Schmiergelder? Präsidenten zetteln Kriege an? Oder Ihr CEO verhält sich ungebührlich in der Öffentlichkeit? Ob Wettbewerber, politische Gegner oder eine gesellschaftliche Front, Deep Fake scheint ein neues potentes Werkzeug für Attacken auf die Agenda und Reputation anderer. Sobald die Stimme einer öffentlichen Person oder eines Unternehmens, die Stimme Ihres CEOs, Gewicht hat, wird sie zum potenziellen Ziel.

Und: Um die Wahrheit zu verdrehen, müsste ich noch nicht einmal selbst ein Video erstellen. Denn, je weiter Deep Fakes zu einer Normalität werden, derer sich Medienkonsumenten bewusst sind, desto mehr sinkt doch die Beweiskraft von Video- und Audiomaterial. Es könnte ja auch Deep Fake sein. Das würde ich zumindest auf einer Anklagebank immer behaupten.


nico-kunkel_150x150pxÜber den Autor: Nico Kunkel ist seit mehr als zehn Jahren professioneller Beobachter von Themen und Trends in Kommunikation, PR- und Medienindustrie. Er arbeitet als freier Journalist und Impulsgeber für Events und Netzwerke in der Branche. 2012 begründete Kunkel die PR-Nachwuchsinitiative #30u30. Er ist Herausgeber des PR Career Center, das PR-Studierende unterstützt und vernetzt. Nico Kunkel lebt in Berlin. Er twittert als @prreporter.