© GettyImages
Das Ende der Wahrheit?
Es wird immer leichter, Bilder zu manipulieren. Das ist ein Fakt, vielleicht bald der letzte. Wie geht Demokratie in Zeiten des perfekten Fakes?
Im Online-Forum Reddit wurde vor ein paar Monaten ein Pornoclip eingestellt, der die israelische Schauspielerin Gal Gadot beim Sex zeigt. Bei dem kompromittierenden Video handelt es sich nicht etwa um ein geleaktes Sextape, sondern um einen Fake.

Ein Reddit-Nutzer namens "deepfakes" nahm ein Foto der Schauspielerin und montierte es in einen Pornofilm. Alles, was er dazu brauchte, war eine Software, die im Netz zum kostenlosen Download bereitsteht. Mit der passenden App wird Denunziation zum Kinderspiel.

Die Leichtigkeit des Scheins
Bei genauem Hinsehen erkennt man einige Unschärfen: Das Gesicht ist pixelig und kastenförmig, die Bildübergänge sind rau, der Kopf wirkt in manchen Szenen wie ein Fremdkörper. Doch was an dem Fake-Porno verblüfft, ist zum einen die Leichtigkeit, mit der sich Bewegtbilder retuschieren lassen. Und zum anderen das immense Manipulationspotenzial.

In Zeiten, in denen täglich 300 Millionen Fotos auf Facebook hochgeladen werden und an jeder Ecke Gesichtserkennungssysteme installiert werden, kann das Konterfei leichter Hand zum Gegenstand von Rachepornos werden. Auf einschlägigen Pornoportalen finden sich reihenweise Fakes von Schauspielerinnen wie Jennifer Aniston und sogar Michelle Obama.

Aus Hollywood an den heimischen PC
Computergenerierte Bilder waren bis vor ein paar Jahren nur in aufwendigen Hollywood-Produktionen möglich. Doch mit der Popularisierung künstlicher Intelligenzen benötigt man für die Manipulation von Bildern keine teuren Spezialeffekte mehr, sondern nur noch eine Software.

Das Tool TensorFlow, das dabei zum Einsatz kam, wurde 2015 von Google als Open-Source zur Verfügung gestellt, mit dem Ziel, maschinelles Lernen zu verbessern. Seitdem kann jeder auf Googles Bilderkennungsalgorithmen zugreifen.

Wendet sich das Geschöpf gegen seinen Schöpfer? Läuft die Veröffentlichung des Quellcodes, mit der Fakes zum Kinderspiel werden, dem erklärten Ziel des Konzerns zuwider, "die Informationen der Welt zu organisieren und für alle zu jeder Zeit zugänglich und nutzbar zu machen"?

Manipulierte Mimik
Es gibt bereits Techniken, mit denen sich Bildmaterial auch professionell manipulieren lässt. Forscher der Universität Erlangen haben eine Software entwickelt, mit der sich Mimik und Lippenbewegungen eines Menschen erfassen und in Echtzeit auf das Videobild einer anderen Figur übertragen zu lassen.

Dabei wird das Gesicht des Sprechers aus drei Richtungen fotografiert. Eine Software erstellt ein 3D-Modell, das wie eine Maske über das Konterfei einer Person gelegt wird. Wenn die Person zu sprechen anfängt, übersetzt die Software simultan die Mimik und projiziert sie auf die Zielperson. Man kann also grinsen oder die Mundwinkel verziehen, während es der digitale Doppelgänger von Wladimir Putin gleichtut.

Forscher des chinesischen Suchmaschinenunternehmens Baidu haben kürzlich ein Verfahren vorgestellt, das nur wenige Sekunden Ausgangsmaterial benötigt, um eine Stimme digital zu reproduzieren. Zum Vergleich: Adobe brauchte dafür rund 20 Minuten Trainingsmaterial. Stimmen, Bilder, Videos – mit der richtigen Software kann heute alles manipuliert werden.

Fake-Berühmtheiten
Ein Softwareteam des Chip-Herstellers Nvidia hat vor ein paar Monaten ein neuronales Netzwerk entwickelt, das auf Grundlage von Star-Porträts Fake-Berühmtheiten produziert.

Der Algorithmus generierte über einen Zeitraum von 18 Tagen Bilder, die sich in Millionen Überarbeitungsschritten von einem verpixelten Bild zu einem fein getuschten Porträt weiterentwickelten.

Die Nahaufnahme einer Frau sieht aus wie eine Mischung aus Selena Gomez und Jennifer Aniston. Doch die weichen, symmetrischen Gesichtszüge sind nicht das Ergebnis der Evolution, sondern eines Programmierprozesses – ein maschinelles Artefakt. Der Computer hat eine ganz neue Version von Starlets erzeugt.

Demokratie in Gefahr
Das Verblüffende an den Bildern ist, dass man gar nicht erkennt, dass sie computergeneriert sind. Abgesehen von einer artifiziellen Frisur und einem abgeschnittenen Schädel, der etwas unnatürlich wirkt, könnte man die Personen glatt für unbekannte Hollywood- oder Bollywood-Stars halten. Man kann heute alles reproduzieren: DNA, menschliche Stimmen und Gesichter, Meinungen.

Die Frage ist, was es für die Gesellschaft bedeutet, wenn soziale Netzwerke von massenhaften Fakes in Wort und Bild überflutet werden und Meinungsroboter Dienste wie Twitter mit computerisierter Propaganda bombardieren.

Kann so eine Demokratie funktionieren? Was passiert, wenn Fakes irgendwann so authentisch sind, dass sie von echten Bildern nicht mehr zu unterscheiden sind? Müssen wir uns vielleicht von objektiver Wahrheit verabschieden?

"Informations-Apokalypse"
Justin Hendrix, der Direktor des New Yorker Media Lab, prophezeit: "In den nächsten zwei, drei, vier Jahren müssen wir mit Hobby-Propagandisten rechnen, die ein Vermögen damit verdienen, hochrealistische, fotorealistische Simulationen zu kreieren.

Sollten die Versuche funktionieren und die Leute den Verdacht hegen, dass es keine zugrundeliegende Realität für mediale Artefakte mehr gibt, haben wir ein Problem. Es braucht nur ein paar grosse Fakes, um die Öffentlichkeit zu überzeugen, dass nichts real ist."

Der Computerspezialist Aviv Ovadya warnt gar vor einer "Informations-Apokalypse", einer postaufklärerischen Gesellschaft, in der die Inflation von Informationen die Wahrheit als Leitwährung demokratischer Systeme zerstört. In einem Gastbeitrag für die "Washington Post",stellte Ovadya die Frage: "Was schadet der Gesellschaft mehr: Wenn niemand mehr etwas glaubt oder jeder Lügen glaubt?"

Das Ende der Objektivität
In der libertären Losung "Information wants to be free", die dem Hippie-Aktivisten Stewart Brand zugeschrieben wird und bis heute ein Glaubenssatz im Silicon Valley ist, steckt sie ja auch schon drin, die drohende Gefahr.

Wenn so viele Informationen so frei flottieren, dass sich jeder seine eigene Wahrheit zusammenbasteln kann, fehlt es an objektiven Prüfkriterien. So entwertet sich die Informationsfreiheit selbst.

Symptomatisch ist die Aussage von US-Präsident Donald Trump: Er habe mittlerweile Zweifel, ob die Stimme in dem Skandalvideo, wo er sich mit dem Moderator Billy Bush chauvinistisch über Frauen auslässt ("grab them by the pussy"), auch wirklich die seine sei.

Es ist schon grotesk: Der wissenschaftliche Fortschritt, die technische Möglichkeit, Stimmen digital zu reproduzieren, erlaubt es einem notorischen Faktenverdreher, die Echtheit des Videos in Frage zu stellen.

Es ist eine perfide Methode der Manipulation und Desinformation, derer sich nur Geheimdienste bedienten: Zweifel säen, "alternative" Fakten präsentieren, Gegner mundtot machen. Beweis und Gegenbeweis stehlen sich wechselseitig die Evidenz. Am Ende weiss niemand mehr, was eigentlich stimmt.

Ist die Postmoderne schuld?
Nach der Wahl Trumps gab es unter Intellektuellen eine Debatte, ob die Maxime der Postmoderne, es gebe keine Wahrheit, nur Positionen und Standpunkte, mit der Dekonstruktion von Fakten den Weg für das angeblich postfaktische Zeitalter bereite. Doch womöglich sind Fake-News und Videos nur ein Vorgeschmack dessen, was in der Augmented Reality (AR) oder der virtuellen Realität (VR) auf uns zukommt.

In der virtuellen Realität sind vollimmersive Erfahrungen möglich. Das heisst, der Betrachter hat den Eindruck, er sei mit seinem Körper Teil des Geschehens. Die Szenerie wird dabei am Computer programmiert, was ein Einfallstor für Manipulation ist.

Die virtuellen Monster, denen Nutzer bei der AR-Spiele-App Pokémon Go auf der ganzen Welt nachjagten, waren im Grunde auch Fake – in dem Sinne, dass sie im realen physischen Raum nicht existierten, sondern bloss als Simulation auf dem Smartphone-Bildschirm.

Die Technologie wird mit der Verbreitung von Datenbrillen immer stärker in unseren Alltag integriert werden. Vorstellbar wäre, dass man zur allgemeinen Erheiterung einfach ein paar virtuelle Kreaturen auf dem Küchentisch tanzen lässt oder Tippkick-Figuren mit Augenzwinkern bewegt, statt mit der Familie ein Gesellschaftsspiel zu spielen.

Der Digitalexperte Matthew Biggins sagt voraus, dass wir uns an die AR-Technologie als Bestandteil unseres Körpers gewöhnen werden, wie es Smartphones bereits sind. AR werde sich als Teil unseres normalen Sehvermögens anfühlen.

"Wir steuern auf einen Punkt zu", schreibt Biggins, "wo wir uns ohne (AR) sehbehindert fühlen werden, so wie sich ein Kurz- oder Weitsichtiger ohne Brille oder Kontaktlinse fühlt." Unmerklich fühle sich die Realität ohne die Erweiterung plötzlich wie ein Fake an.

Baudrillard ahnte es schon
Der Soziologe Jean Baudrillard schrieb 2004, dem Jahr, in dem Facebook gegründet wurde, in seinem Werk "Die Intelligenz des Bösen": "Man tritt in einen Bereich ein, wo die Ereignisse, durch ihre Produktion und Ausstrahlung in ‹Echtzeit› nicht mehr tatsächlich stattfinden – wo sie sich in der Leere der Information verlieren."

Für Baudrillard haben sich die Bilder in einer Simulation verselbständigt, es sind leere Zeichen, die in einem "Taumel der Selbstreferenz" umherwabern. Die Wahrheit löst sich so auf, weil Fiktion und Wirklichkeit nicht mehr unterscheidbar sind.

Baudrillard schrieb schon damals von "fake events" (sic!), als hätte er das Aufkommen diverser Fakes geahnt. "Ob diese Ereignisse fabriziert sind oder nicht, so werden sie doch von der stillen Epidemie der Informationsnetzwerke inszeniert."

Virtueller Vandalismus
Die Vorstellungen sind längst keine akademischen Glasperlenspiele oder Science-Fiction-Fantasien mehr. Der chilenische Künstler Sebastian Errazuriz und sein Team vom CrossLab Studio in New York haben im vergangenen Jahr eine digitale Version von Jeff Koons Plastik "Balloon Dog", die sich Snapchat-Nutzern beim Betreten des New Yorker Central Park auf ihren Displays darstellte, mit Graffiti beschmiert.

Es war ein Akt von virtuellem Vandalismus, mit dem Errazuriz ein Zeichen gegen die Kommerzkultur und Besetzung des virtuellen Raums setzen wollte. Der Künstler hätte sich freilich auch für eine radikalere Protestaktion entscheiden können und an die Stelle einen leeren Platzhalter positionieren und die Skulptur dergestalt löschen können.

Er hätte die Plastik aber auch, weniger subtil und subversiv, durch eine andere Plastik ersetzen und das, was als bildhafte Darstellung im halböffentlichen Raum vereinbart wurde, fingieren können. Das zeigt: Was sich als erweiterte und zumindest für den Betrachter als wirkliche Realität darstellt, wird zur Sache der Programmierung.

Wird Wahrheitssuche technisiert?
Gewiss lassen sich Bild- und Audiodateien anhand von Metadaten oder kryptographischen Verfahren verifizieren. Die Frage ist aber, ob gesellschaftliche Debatten in diesem Modus der Informatik funktionieren können. Wird die Wahrheitssuche, das Prüfen von Fakten, das ja auch eine Kulturtechnik ist, zu einem rein technischen Prozess herabgestuft? Muss man programmieren können, um herauszufinden, was wirklich hinter den Dingen der Welt steckt?

Fakten sind der diskursive Standard, auf den sich selbst die erbittertsten politischen Feinde verständigen können. Doch wenn die erkenntnistheoretischen Grundlagen durch eine Flut von Fakes ausgewaschen werden, erodiert am Ende auch das Fundament der Demokratie.

Dieser Artikel erschien zuerst auf www.srf.ch/kultur.

Weitere Artikel zum Thema:
Jean Baudrillard ...
© KeystoneLupeder Philosoph mit dem Faible für Fakes