In die Untiefen der KI – Deepfakes und ihre Gefahren
01. Juni 2025 | Team alfatraining.com
Wenn es um das Thema Künstliche Intelligenz geht, gibt es heutzutage ebenso viele Vorteile wie Nachteile, die angeführt werden können. Grundsätzlich sind KI-Tools sehr hilfreich, gerade wenn es um automatisierte Prozesse geht, und sie bringen deutliche Entlastung in viele Arbeitsprozesse. Sie sind beispielsweise im Bereich des Marketings und der Content-Produktion sehr nützlich, denn mit ihrer Hilfe können Texte sowie Bilder und Videos vereinfacht produziert werden. Dies hilft gerade kleineren Firmen, die oftmals keinen Zugang zu großen PR-Maßnahmen haben, ihren Internetauftritt zu verbessern.
Doch die KI hat auch viele Schattenseiten. Allen voran die Thematik des Datenschutzes, die immer häufiger aufkommt. Zudem fallen auch diskriminierende Muster mit in die Gefahren der Künstlichen Intelligenz hinein, denn wenn KI-Tools nicht ausreichend mit divergierenden Daten ausgestattet werden, können sie diskriminierende Entscheidungen treffen.
Ein Thema in Bezug auf die Gefahren und die Nachteile der Künstlichen Intelligenz, das in letzter Zeit vermehrt auftaucht, sind Deepfakes. Auch wir haben uns mit diesem Thema auseinandergesetzt und wollen in diesem Blogartikel darüber aufklären.
Was sind Deepfakes?
Der Begriff Deepfake setzt sich aus den englischen Wörtern „deep learning“ und „fake“ zusammen. „Deep learning“ bezeichnet eine Methode des maschinellen Lernens, bei der die Künstliche Intelligenz mit tief verschachtelten neuronalen Netzen, sogenannten „deep neural networks“, arbeitet, um auf Informationen zurückzugreifen. (1) Diese sollen die neuronalen Netze des Hirns simulieren. (2) Die KI greift dadurch unüberwacht auf Informationen im Netz zu und kann die daraus entnommenen Daten auswerten sowie überarbeiten und präzisieren. Heutzutage greifen beinahe alle KI-Tools auf diese Informationsmethode zurück. Die zweite Silbe des Wortes, „Fake“, steht für „Fälschung“ (3) . Per Definition sind Deepfakes Inhalte, meistens Bilder oder Videos, die mithilfe des deep learnings verfälscht wurden und dabei täuschend echt wirken. Die Hochschule Makromedia formuliert treffend: „Unter Deepfakes versteht man überwiegend Fotos oder Videos, in denen Gesichter mittels Künstlicher Intelligenz digital ausgetauscht wurden. Das können jedoch auch Audiodateien sein, in denen eine bestimmte Stimme Texte spricht, die die betroffene Person nie so gesagt hat.“ (4)
Wie werden Deepfakes erstellt?
KI-Tools verändern durch Deep Learning Bild- und Videomaterialien, um sowohl neue Gesichter als auch neue Stimmen zu generieren und im Internet zu verbreiten: „Video- oder Audio-Originale dienen als Trainingsvorlage, um Mimik und Stimmcharakteristik zu übernehmen. Je höher die Qualität der Originaldaten, umso realitätsgetreuer wird die Fälschung.“ (4) Bei Deepfakes werden also Gesichter in Videos und Bildern ausgetauscht, neue Stimmen hinzugefügt oder gesprochene Inhalte verändert. Dabei unterscheidet man bei Deepfakes zwischen verschiedenen Verfahren, mithilfe derer Bewegtbilder oder Tonmaterialien verändert werden können.
Verfahren 1: Face Swapping
Beim Face Swapping ersetzt man ein Gesicht durch ein anderes. Die Mimik des ursprünglichen Gesichts bleibt dabei erhalten und überträgt sich auf das eingesetzte zweite Gesicht. (4) Nutzer:innen setzen diese Technik derzeit vor allem bei Prominenten ein. Sie platzieren die Gesichter berühmter Personen auf die Körper anderer Menschen und nutzen sie für eigene Zwecke. Die so neu geschaffenen Promis verkaufen dann zum Beispiel Kosmetik oder erscheinen in Interviews, die eigentlich nie stattgefunden haben.
Verfahren 2: Face Reenactment
Beim Face Reenactment, der „Gesichtsnachstellung“, bleibt das ursprüngliche Gesicht bestehen. Die KI überträgt nun den Gesichtsausdruck und die Mimik eines anderen Menschen auf dieses Gesicht und überschreibt somit die ursprüngliche Mimik im Bild oder Video. (4) Zeigt das Originalbild beispielsweise ein lächelndes Kind auf einem verregneten Spielplatz, verändert das Face Reenactment das Gesicht so, dass das Kind weint. Das Bild vermittelt nun eine völlig andere Stimmung, statt Freude und Spaß sehen wir plötzlich Trauer, vielleicht sogar Angst.
Verfahren 3: Text-to-Speech
Beim Text-to-Speech-Verfahren wandelt man einen vorgegebenen Text in ein Audio-Signal um. Dadurch lassen sich gesprochene Aussagen im Video nachträglich einfügen oder verändern. (4) Nutzer:innen können so jeden beliebigen Text hörbar machen.
Verfahren 4: Voice-Conversion
Die Voice Conversion geht über das Text-to-Speech-Verfahren hinaus. Hier verändert man die Stimme eines gesprochenen Textes so, dass sie wie die eines anderen Menschen klingt. (4) Ein Beispiel: Eine Person spricht einen harmlosen Text wie: „Ich brauche dringend deine Hilfe, bitte ruf mich zurück.“ Mithilfe einer Voice-Conversion-Software passt sie die Aufnahme anschließend so an, dass sie wie die Stimme einer vertrauten Person klingt. Die angerufene Person erkennt die Fälschung nicht, reagiert emotional und gibt vertrauliche Daten oder Geld weiter.
Verfahren 5: Neue Identitäten
Kombiniert man alle genannten Verfahren, kann eine KI völlig neue Identitäten erschaffen, die in der realen Welt gar nicht existieren. Die KI übernimmt das Gesicht, die Mimik und die Stimme realer Menschen, aber sie spricht Inhalte, die von einer anderen Person geschrieben wurden. Für uns ist es oft schwer, diese künstlichen Persönlichkeiten auf den ersten Blick als Fälschungen zu erkennen. (4)
Warum werden Deepfakes generiert?
Deepfakes werden hauptsächlich eingesetzt, um Fake News effektiv zu verbreiten oder anderen Menschen Schaden zuzufügen. Mittlerweile sind KIs so gut trainiert, dass es schwerfällt, die erstellten Deepfakes auf den ersten Blick als Fälschungen zu erkennen. Das bringt viele Gefahren mit sich. In der Politik setzen Akteure Deepfakes ein, um gezielt Desinformationen zu verbreiten. Sie lassen bekannte Politiker:innen in manipulierten Videos Aussagen treffen, die sie nie gemacht haben, wie etwa eine gefälschte Kriegserklärung, einen Skandalkommentar oder eine beleidigende Rede. Passend dazu kombinieren sie gefälschte Tonspuren mit realistisch wirkendem Videomaterial, um die Täuschung zu optimieren. Solche Inhalte verbreiten sich rasch in sozialen Netzwerken und können das Vertrauen in demokratische Prozesse massiv erschüttern. (5)
Selbst im juristischen Bereich stellen Deepfakes ein ernstzunehmendes Risiko dar. Täter:innen verändern mit geringem Aufwand Beweisbilder oder Videomaterialien, etwa aus Überwachungskameras, und passen sie so ihren Zwecken an. Gerichte und Ermittlungsbehörden stehen dann vor der Herausforderung, zwischen echten und gefälschten Beweismitteln zu unterscheiden.
Letztlich kann jeder Mensch in der Gesellschaft zum Ziel von Deepfake-Manipulationen werden. Und zur Durchführung dieser Maschen braucht es keine Spezialist:innen. Wie die Hochschule Makromedia betont, „gibt es verschiedene Apps und Softwares, die auch ohne großes Technik-Know-how nutzbar sind.“ (4) Somit können Deepfakes potenziell selbst von Laien bedient und zu Schadenszwecken genutzt werden.
Wie kann man Deepfakes erkennen?
Da sich die Gefahren der Deepfakes immer weiter ausbreiten und uns auch im Alltag immer häufiger begegnen oder sogar persönlich betreffen können, wollen wir hier aufklären, wie wir Deepfakes als solche enttarnen können. Dabei müssen wir Bild-, Video- sowie Audioquellen genau untersuchen (4):
- Gibt es sichtbare Übergänge bei den Bewegungen, tauchen beispielsweise bei übereinandergelegten Gesichtern plötzlich wieder die ursprünglichen Lippen oder Augenbrauen auf?
- Gibt es verwaschene Konturen wie unscharfe Zähne oder ein starrer, sich nicht ändernder Blick?
- Stimmt die Lippen-Synchronisation mit dem gesprochenen Text überein oder gibt es hier Abweichungen?
- Gibt es unstimmige Reaktionen in der Mimik, die nicht zum gesprochenen Text oder zur Situation, in der sich die Person befindet, passen? Feinheiten wie ein Stirnrunzeln oder auch ein Blinzeln der Augen können nach derzeitigem Stand noch nicht von der KI umgesetzt werden.
- Stimmt die Belichtung auf dem Video? Sind die Schatten passend zum Lichteinfall gesetzt?
Auch beim Tonmaterial gibt es kleine Merkmale, die auf ein Deepfake hinweisen können. Hier sollte man aufhorchen, wenn es falsche Betonungen, einen metallischen Klang in der Stimme oder gar eine Zeitverzögerung gibt. Menschen fallen sich in Gesprächen gerne mal ins Wort, um die Konversation voranzutreiben, was eine KI nicht umsetzen kann. Somit gibt es derartige, für uns doch sehr alltägliche Szenerien bei Deepfakes nicht. (4)
Technologieunternehmen wie IBM entwickeln derzeit eine Software, die manipulierte Medien in Echtzeit erkennen kann, zum Beispiel während eines laufenden Telefonats. Der zunehmende Einsatz von Deepfakes hat deutlich gemacht, wie dringend solche Erkennungssysteme heute gebraucht werden. (6)
Wie sieht die Gesetzeslage zu Deepfakes aus?
Da es sich bei Deepfakes um ein neues Phänomen handelt, sind viele rechtlichen Aspekte bis dato noch unklar. Sie dürfen legal eingesetzt werden, solange damit nicht die Schädigung eines anderen Menschen oder die Verbreitung von Fakes News bezweckt wird. Deshalb sollte man im Umgang mit Deepfakes Vorsicht walten lassen und sie nur im privaten Rahmen wie beispielweise zur Bearbeitung von Fotos oder Videos der eigenen Person nutzen. Denn auch die Nichteinhaltung von Bild- und Tonrechten kann zur Anzeige gebracht werden. (4)
Aufklärung im Netz: Der Digitaltag
Wenn ihr euch weiter zum Thema Deepfakes informieren wollt, gibt es beim Digitaltag der DFA einen spannenden Vortrag zum Thema: „Deepfakes: Wie erkennen wir KI-generierte Inhalte?“ Der Vortrag ist am 26.06.25 von 18:00–19:00 Uhr online und kann kostenlos besucht werden. Am 27. Juni 2025 findet der diesjährige Digitaltag unter dem Motto „Digitale Demokratie. Mitreden. Mitgestalten. Mitwirken“ statt. Während des Aktionszeitraums vom 20. bis 29. Juni 2025 erwarten euch vielfältige Veranstaltungen rund um das Thema Digitalisierung. Ob bei einer digitalen Stadtrallye, spannenden Diskussionen oder einem Tag der offenen Tür, der Digitaltag 2025 bietet euch die Gelegenheit, tief in die digitale Welt einzutauchen, Neues zu entdecken und euer Wissen aktiv zu erweitern.
Fazit
Deepfakes bringen zahlreiche Gefahren mit sich, die längst nicht nur Einzelpersonen, sondern auch Unternehmen und die Gesellschaft als Ganzes betreffen. Zwar existieren bereits verschiedene Methoden, um Deepfakes zu erkennen, doch gelingt es bisher nur selten, sie in Echtzeit zu enttarnen. Oft haben die manipulierten Inhalte ihren Schaden bereits angerichtet oder sich millionenfach verbreitet, bevor jemand eingreifen kann. (5)
Umso wichtiger ist es, Bild- und Tonmaterialien in der digitalen Welt mit einem kritischen Blick zu betrachten. Wer auf verdächtige Inhalte stößt, sollte nicht vorschnell reagieren, sondern genau hinschauen, recherchieren und idealerweise einen Faktencheck durchführen. Besonders bei Betrugsversuchen am Telefon oder über Messenger-Dienste ist Vorsicht geboten: Reagiert nicht sofort auf vermeintlich dringende Anrufe oder Nachrichten, sondern prüft zuerst, ob die Quelle echt ist, bevor ihr weitere Schritte unternehmt. (5)
Der verantwortungsvolle Umgang mit Künstlicher Intelligenz folgt dabei einem einfachen Grundsatz: KI ist ein mächtiges und hilfreiches Werkzeug, wenn man im Voraus genau überlegt, welche Daten man eingibt und wofür man die Technologie nutzt. Und am wichtigsten: Man sollte die Ergebnisse der KI immer kritisch prüfen, bevor man ihnen vertraut.
Quellen
(1) Bundesamt für Sicherheit in der Informationstechnik: Deepfakes – Gefahren und Gegenmaßnahmen.
(2) Holdsworth, Jim; Scapicchio, Mark: Was ist Deep Learning? 2024.
(3) Duden: Fake, der oder das.
(4) Hochschule Makromedia, University of Applied Sciences: Die Gefahren von Deepfakes.
(5) Walter, Tim: Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann, 2023.
(6) Brodsky, Sascha: Tech industry ramps up erfforts to combat rising deepfake threats, 2024.