Früher galt das Kredo: «Pics, or it didn’t happen», zu Deutsch: Bild, oder es ist nicht passiert. Wo immer etwas nicht ganz so glaubwürdig passiert sein soll, braucht es demnach zumindest ein Foto als Beweis. Noch besser ein Video. Durch die immer raffinierteren Manipulationsmöglichkeiten von Bildern mittels künstlicher Intelligenz wird auch diese Beweisführung mehr und mehr ungültig. Denn: Mittlerweile lässt sich praktisch alles so realistisch darstellen, als wäre es tatsächlich passiert, wie diese Eisbärrettung, die in Wahrheit nie stattgefunden hat:

https://www.youtube.com/shorts/ehcNkJ5QBSo

Kuscheln und Händeschütteln mit einem Eisbären? Das klingt nur in der Fantasie verlockend. In der Realität würde das Tier im besten Fall fliehen, im schlimmsten Fall zum Angriff übergehen. Solche Videos mögen also zwar herzerwärmend wirken, sind aber im Zweifelsfall gefährlich. Denn wie man an den zahlreichen Kommentaren sieht, nehmen nicht wenige Betrachter die Story als bare Münze und erkennen nicht, dass es sich hier um einen Fake handelt.

Wer profitiert?

Warum aber sollte jemand solche Bilder und Videos erstellen? Klicks, also das Aufrufen und Anschauen solcher Inhalte, sind die Währung des Internets. In manchen Fällen bedeutet das pures Geld. Durch zwischengeschaltete Werbung kann man auf Youtube durchaus im mehrstelligen Bereich verdienen, je nach Angaben zwischen 1 und 2 Franken pro 1000 Besuchern. Je emotionaler der angebotene Inhalt, desto mehr Menschen werden ihn sich anschauen und teilen, und desto grösser sind die Einnahmen. Einige dieser «Rettungsvideos» haben bereits mehrere Millionen Klicks, sodass die Einnahmen für denjenigen, der sie hochgeladen hat, im vierstelligen Bereich liegen dürften.

Doch auch für Stimmungsmache für politische oder ideelle Zwecke werden durch KI manipulierte Fotos verwendet. Im Sommer kursierte in den sozialen Medien ein Bild eines angebliches Massengrab, in denen tote Hunde liegen. Das Foto soll in der Türkei entstanden sein, wo ein Gesetz seit kurzem die Tötung von Strassenhunde erleichtert. Dass dieses Gesetz auf Protesten seitens Tierfreunde stösst, ist verständlich. Allerdings werden diese Proteste nicht immer nur durch authentische Berichterstattungen, sondern immer mehr auch durch besonders drastische, emotionale Bilder befeuert, die so nicht immer die wahre Lage widerspiegeln.

[IMG 2]

Fakes erkennen

Fragt sich also, wie man solche manipulierten oder gar komplett künstlich erstellen Bilder erkennen kann. Mit dem rasanten Fortschreiten der Technologien dürfte dies immer schwieriger werden. Bis vor kurzem hatte KI noch Probleme damit, Hände anatomisch korrekt darzustellen. Sollten sich also Menschen auf den Bildern und Videos befinden, so sollte man auf Hände und Gesichter achten, und auch bei Tieren gilt es, die Anatomie im Blick zu halten. Auch Schatten und Texturen sind bei KI-generierten Videos und Bildern oft auffällig unnatürliche. Beim Foto mit dem angeblichen Hundemassengrab fällt auf den zweiten Blick die zum Teil unmögliche Anatomie der Tiere auf. Beim Eisbärvideo sind die Bewegungen unsauber, die Grössenverhältnisse stimmen zum Teil nicht, und die Texturen sind zu glatt.

Doch auch hier lernt KI immer mehr dazu und Fakes werden perfekter. Viel wichtiger ist jedoch die Auseinandersetzung mit dem angeblich gezeigten Inhalt. Wie realistisch ist es, dass ein Eisbär sich die Pfote schütteln lässt? Ist die Quelle eines Fotos eine offizielle Organisation oder doch eher eine dubiose Seite, die einfach nur Inhalte teilt? Im Falle des Eisbärvideos handelt es sich um ein Reel des Accounts «Mysticwild», der selber angibt, mithilfe von KI Inhalte zu erstellen.

Nicht zuletzt gibt es verschiedene Fakten-Checker, die sich dem Thema Fake-News und KI verschrieben hat. So identifizierte Correctiv das Hundebild eindeutig als gefälscht, und auch die Organisation Mimikama berichtet immer wieder um KI-Fälschungen, wie auch im Falle des Eisbärvideos.

Um KI-generierte Bildfälschungen herzustellen, muss man im Übrigen kein Profi sein. Unser Titelbild haben wir mit einer entsprechenden Software und ein paar Klicks innerhalb zweier Minuten erstellt. Auch diese Szene hat so also nie stattgefunden.