KI-Experten warnen vor erheblichen Defiziten bei heutigen Methoden zur Auszeichnung von Bildern, Videos und Audio-Aufnahmen, die mit Hilfe Künstlicher Intelligenz (KI) erzeugt werden.
Technische Verfahren, mit denen digitale Medien wie Bilder oder Videos mit Hilfe von Künstlicher Intelligenz manipuliert werden können, sind inzwischen weit verbreitet. Wir erklären, was Deepfakes sind, wo sie eingesetzt werden und welche Gefahren mit ihnen verbunden sind.
KI-Experten warnen vor erheblichen Defiziten bei heutigen Methoden zur Auszeichnung von Bildern, Videos und Audio-Aufnahmen, die mit Hilfe Künstlicher Intelligenz (KI) erzeugt werden.
Für die Nutzer sichtbare Markierungen könnten irreführend und schwer zu entdecken sein und seien zugleich relativ einfach zu entfernen, betont die Internet-Stiftung Mozilla in einem am Montag (26. Februar) veröffentlichten Bericht.
Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien zwar die robustere Lösung, heißt es in dem Bericht. Aber auch hier gebe es den Vorbehalt, dass diese Informationen erst von der Software auf den Geräten der Nutzer ausgelesen und für sie dargestellt werden müssen.
Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, warnt Mozilla-Forscherin Ramak Molavi Vasse’i. Die sogenannten Deepfakes würden meistens extra dafür erstellt, um Menschen in die Irre zu führen. Wenn die Branche mit der Selbstregulierung nicht vorankomme, müsse es mehr Druck geben, fordert Ramak Molavi Vasse’i.
Generell sei es ein Problem, dass gerade eine Technologie in Umlauf gebracht werde, bei der Maßnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden, warnt Ramak Molavi Vasse’i. Außerdem gebe es noch einen Wildwuchs aus mehreren Verfahren statt einheitlicher Standards.
Fakt ist: Mit KI-Software kann man immer realistischere Fotos aus Text-Vorgaben erzeugen. Inzwischen werden auf diese Weise auch immer häufiger Videos generiert. So stellte der ChatGPT-Entwickler OpenAI jüngst seine Video-Software Sora vor. Die sichtbare Markierung, die auf eine KI-Herkunft hinweise, sei bei Sora klein und oft schwer zu sehen, kritisiert die Mozilla-Expertin.
Insbesondere in diesem Jahr mit der der Europawahl am 9. Juni und der US-Präsidentenwahl am 5. November gibt es große Sorgen, dass mithilfe von KI erstellte Fälschungen verwendet werden könnten, um hren Ausgang zu beeinflussen. In den USA gab es bereits kurz vor der Vorwahl der Demokratischen Partei im Bundesstaat New Hampshire automatisierte Anrufe, bei denen mit der täuschend echt wirkenden Stimme von Präsident Joe Biden dazu aufgerufen wurde, der Abstimmung fernzubleiben.
Solche Audio-Fakes gelten allein schon deshalb als großes Problem, weil es weniger Möglichkeiten gibt, sie anhand von Fehlern oder Kennzeichen zu erkennen. Es gab bereits Fälle, in denen solche Aufnahmen für den sogenannten Enkel-Trick angewendet wurden, bei dem Kriminelle versuchen, Geld im Namen von Verwandten zu erbeuten.