Deepfakes und KI-manipulierte Realitäten – Chancen und Risiken für Konsumenten
Haben Sie schon davon geträumt, in einer ikonischen Szene Ihres Lieblingsfilms die Hauptrolle zu spielen? Oder sich gewundert, wie Sie in zehn Jahren aussehen werden? Gesagt, getan: Sie müssen nur noch die passende App dazu herunterladen. Denn Künstliche Intelligenzen (KIs) sind jetzt in der Lage, Bilder, Videos und Tondateien auf Wunsch so zu manipulieren oder gar von Grund auf neu zu erstellen, dass sie authentisch wirken. Häufig wird eine echte Person abgebildet, die aber mittels KI-Techniken «etwas sagt oder tut, was sie nie gesagt oder getan hat», wie in der interdisziplinären Studie «Deepfakes und manipulierte Realitäten» von TA-SWISS festgehalten wird. Möglich ist auch die Darstellung von Menschen oder Ereignissen, die es in Wirklichkeit nie gegeben hat.
Das kreative Potential ist riesig. Bald werden wir vielleicht im Geschichtsunterricht mit «historischen Avataren» plaudern, um uns ein lebendiges Bild vergangener Realitäten zu machen. Oder uns mit unseren Ängsten in einer Therapie konfrontieren, jedoch nur virtuell. Bei Missbrauch bergen diese Technologien allerdings grosse Gefahren. In der Studie von TA-SWISS werden die Chancen und Risiken von Deepfakes untersucht und Handlungsoptionen für die Schweizer Gesellschaft formuliert. Im Folgenden wird auf einige Szenarien hingewiesen, die wir als Konsumenten im Blick haben sollten.
Bei Deepfake-Videos zeigt sich leider eine ernüchternde Tendenz: die Mehrheit zirkulierender Deepfakes sind pornographischer Natur; darin sind Frauen zu sehen, die ihre Einwilligung zu dieser Inszenierung nie geben würden. Bis jetzt standen dabei vor allem berühmte Frauen im Visier –- wie vor Kurzem die Sängerin Taylor Swift, denn von ihnen existieren viele Videos und Bilder im Internet, was die Erstellung eines Videos technisch einfacher macht. Bei Bildern ist der Aufwand viel geringer. In Spanien wurden gefälschte Nacktbilder von Schülerinnen mittels einer günstigen App verbreitet, die aus einem einfachen Gesichtsbild einen künstlichen, nackten Körper generiert. Mobbing und Drohungen sind somit in Griffnähe, und viele Opfer haben von für sie traumatischen Folgen berichtet. Was Audio-Deepfakes betrifft, ermöglichen diese unter anderem das Klonen einer Stimme. Somit können Authentifizierungsverfahren via Stimme am Telefon, etwa bei einer Bank, überlistet oder Schockanrufe durchgeführt werden: Ihr Bruder ruft Sie in Not an und bittet sofort um Geld, und die KI-Stimme am Telefon klingt genauso wie jene Ihres Bruders – eine derzeit oft verwendete Falle.
Zu all diesen Zwecken werden mittelfristig wohl nur wenige Gesichts- und Stimmdaten über eine Person ausreichend sein. Schwierig ist es demgegenüber, wie in der TA-Studie gezeigt wird, sich gegen Deepfake-Angriffe zu wehren. Viele Fälle sind zwar von Schweizer Gesetzen abgedeckt, auch wenn einige Fragen offenbleiben, gerade bei pornographischen Inhalten. Aber in der Rechtsdurchsetzung sind die Hürden noch hoch: Online-Inhalte gehen schnell viral, und es ist schwer, sie endgültig zu löschen. Oft ist die Täterschaft auch nicht identifizierbar. In der Studie wird dafür plädiert, die grossen Plattformen, auf denen viele Deepfakes geteilt werden, stärker zu regulieren: insbesondere sollen Deepfakes bei Verdacht auf eine Rechtsverletzung gelöscht oder gesperrt und ein Meldesystem für rechtswidrige Inhalte eingeführt werden. Ausserdem sollen Opferberatungsstellen mehr Mittel für die Unterstützung von Opfern von Cyberdelikten erhalten. Denn oft fehlt es Betroffenen an Ressourcen und Know-how, um ihre Rechte zu wahren und überhaupt zu reagieren. Es geht dabei um anspruchsvolle Verfahren.
Als Bürgerinnen und Bürger werden uns wahrscheinlich immer mehr Deepfakes im politischen Kontext begegnen. Auch in diesem Bereich sind die Möglichkeiten vielfältig. Einerseits können Deepfakes ein Mittel zum Ausdruck politischer Überzeugungen bieten, zum Beispiel mit einer satirischen Note. In diesem Sinne sind sie von der Verfassung im Rahmen des Rechts auf freie Meinungsäusserung geschützt. Andererseits taugen sie als Manipulationswerkzeug, sei es zur Verbreitung falscher Informationen, zur Diskreditierung eines politischen Akteurs oder zur Instrumentalisierung von Spannungen in der Gesellschaft. Aus diesem Grund werden Deepfakes oft eher als Gefahr für die Demokratie betrachtet. Dies bestätigt eine Befragung bei Schweizer Parlamentsmitgliedern im Rahmen der TA-Studie. Auch vor diesem Hintergrund ist die Regulierung der grossen Plattformen zu empfehlen. Dies muss Transparenz über Entscheide zur Entfernung von Inhalten ebenso wie Widerspruchsmöglichkeiten für Betroffene miteinschliessen, um die Meinungsäusserungsfreiheit bei unberechtigten Löschungen zu gewährleisten.
Die Bevölkerungsumfrage der TA-Studie hat ergeben, dass im September 2023 nur knapp mehr als die Hälfte der Befragten bereits mit dem Begriff «Deepfake» vertraut war. Nur zwei bis drei Prozent gaben an, einen Deepfake schon erstellt oder geteilt zu haben. Deepfakes wurden vorwiegend als Risiko wahrgenommen. Im Rahmen eines Online-Experiments hat sich zudem gezeigt, dass die Leute einen technisch gut gemachten Deepfake von einem realen Video kaum unterscheiden können.
Um diesen neuen Kontext sinnvoll zu begleiten, empfehlen die Forscher der Studie, auf die Stärkung unserer Medienkompetenzen zu setzen, zum Beispiel in Schulprogrammen und mit Hilfe möglichst diverser Medien. Gefragt sind unsere Fähigkeiten zur Quellenprüfung und kritischen Einordnung von Online-Inhalten – eher als technische Tools zur Erkennung und Kennzeichnung von KI-generierten Inhalten; denn diese sind fehleranfällig und können nicht alle zirkulierenden Deepfakes erfassen. Nicht zuletzt wird unsere Selbstverantwortung massgebend sein: was machen wir mit Bildern und Videos im Netz, welche teilen wir und welche nicht?
Dr. Laetitia Ramelet
Projektleiterin bei TA-SWISS
Illustrationen: Hannes Saxer