Deepfakes im Unterricht: Wie man Schülerinnen und Schüler sensibilisiert
Echt oder gefälscht? Deepfakes fordern unseren kritischen Blick heraus. Lehrkräfte können Kinder und Jugendliche mit gezielten Übungen zu wachsamen Mediennutzerinnen und -nutzern machen.

Deepfakes machen es zunehmend schwer, in der digitalen Welt zwischen Realität und Fälschung zu unterscheiden. Ob ein Kirchenoberhaupt in Daunenjacke, ein inniger Kuss zwischen Politikern oder Musikstars, die für dubiose Trading-Apps werben: Die gefälschten Videos, Bilder und Tonaufnahmen werden mittels künstlicher Intelligenz (KI) erzeugt und erscheinen oft täuschend echt.
Ungeschulte Augen und Ohren tun sich schwer, KI-Fakes als solche zu erkennen – eine Gefahr vor allem für jüngere Nutzerinnen und Nutzer. Denn in sozialen Medien kommen Kinder und Jugendliche regelmäßig mit Deepfakes in Kontakt.
Das heißt aber nicht, dass sie Manipulation und Desinformation schutzlos ausgeliefert sind. Einen kritischen Umgang mit digitalen Medien kann man lernen – dabei spielen Bildungseinrichtungen eine wesentliche Rolle.
Dieser Beitrag zeigt, wie Deepfake-Prävention im Unterricht gelingen kann – mit konkreten Tipps und Ideen für Lehrpersonen.
Deepfake-Prävention: Kritisch und zugleich gelassen bleiben
Schon ab der Grundschule ist die Botschaft wichtig: Geht kritisch mit Medien um! Doch alles grundsätzlich anzuzweifeln, ist weder zielführend noch praktikabel. Auf Social Media werden Kinder und Jugendliche derart mit Inhalten geflutet, dass es schlicht unmöglich wäre, jedes Foto oder Video einzeln auf seine Authentizität zu prüfen.
Medienkompetenz fängt deshalb bei der Frage an: Welche Infos muss ich gegenchecken? Die wichtigste Fähigkeit ist, zwischen unerheblichen und relevanten Inhalten zu unterscheiden.
Ein Beispiel: Ein harmloses Video, das eine Meereslandschaft mit einem Surfer in den Wellen zeigt, muss nicht extra kritisch überprüft werden, um Ungereimtheiten zu finden, die auf ein Deepfake hinweisen. Andere Inhalte, etwa ein Bild von einem Flamingo, der auf einem Eisbären reitet, sind wiederum offensichtlich gefälscht. Da hat sich jemand einfach einen Spaß gemacht und hatte nicht unbedingt die Absicht, andere zu täuschen.
Kinder und Jugendliche sollen eine kritische, aber keine paranoide Grundhaltung zu digitalen Medien entwickeln. Nicht hinter jedem Inhalt lauert eine Fälschung mit manipulativen Absichten.
Anders verhält es sich mit Content, der emotional berühren soll oder mit politischen Botschaften spielt. Zum Beispiel ein Video, in dem bestimmte Personen oder Gruppen als besonders böse und verachtenswert dargestellt werden. In so einem Fall sollten Nutzerinnen oder Nutzer andere, glaubwürdigere Medien befragen, ob die gezeigten Inhalte den Tatsachen entsprechen.
Wenn ein Inhalt starke Emotionen weckt, sollte der kritische Blick aktiviert und Quellenrecherche betrieben werden: Woher kommt die Info? Wer berichtet sonst noch darüber? Gibt es Anzeichen, die auf ein Deepfake hindeuten?
Je nachdem, ob man es mit Videos, Bildern oder Tonaufnahmen zu tun hat, existieren verschiedene Methoden, um Deepfakes zu entlarven. Der Beitrag „Täuschend echt: So erkennen Sie KI-Content“ zeigt Ihnen, worauf Sie achten sollten.
Umgang mit Deepfakes: Zwei Ideen für den Unterricht
Die meisten sozialen Netzwerke dürfen ab 13 Jahren genutzt werden. Ab diesem Alter ist es sinnvoll, sich im Schulunterricht gezielt mit dem Thema „Deepfakes und Fake News“ zu beschäftigen. So empfiehlt es das Schulportal der deutschen Robert Bosch Stiftung.
Die wichtigsten Fragen, die mit Kindern und Jugendlichen dabei erörtert werden sollten, sind folgende: Wie einfach ist es heute, ein Deepfake zu erstellen? Wie unterscheide ich Deepfakes von „echten“ Inhalten? Und wie kann ich verhindern, dass ich selbst als Vorlage für eine digitale Fälschung missbraucht werde?
Dazu zwei Ideen für den Unterricht:
- Der YouTube-Beitrag „Deepfake Selbstexperiment: Wie easy kann ich Fake News mit KI erstellen?” von PULS Reportage zeigt, wie Deepfakes entstehen, indem der Reporter selbst versucht, ein Fake-News-Video mit der gefälschten Stimme eines bekannten Nachrichtenmoderators zu erstellen. Dabei verfügt der Reporter weder über IT-Skills, noch ist er besonders vorbereitet.
Der Selbstversuch macht deutlich, wie einfach es ist, Deepfakes in die Welt zu setzen, wie die Technologie dahinter funktioniert und woran Fake-Videos zu erkennen sind.
Folgende Fragestellungen könnten im Unterricht thematisiert werden: Wie funktioniert die Technologie hinter den täuschend echten Fake-Inhalten? Mit welchen Tools lässt sich KI-generierter Content entlarven? Welche Ziele könnten Personen oder Organisationen verfolgen, die Deepfakes in Umlauf bringen? - Gefälschte Bilder, Videos und Tonaufnahmen treffsicher zu erkennen, das gelingt am besten nach dem Prinzip „Learning by Doing“: Mit den Online-Quiz „Erkennen Sie alle KI-Bilder?“ und „Erkennen Sie alle KI-Videos und -Audios?“ können Schülerinnen und Schüler ihr theoretisches Wissen über Deepfakes auf die Probe stellen. Die Feedback-Funktion im Quiz erklärt, wodurch sich die KI-erstellten Inhalte verraten.
Neben konkreten Übungen kann eine gemeinsame Reflexion die Kinder und Jugendlichen für die Gefahren von Deepfakes sensibilisieren. Diese werden eben häufig nicht nur zum Spaß ins Netz gestellt, sondern dienen auch kriminellen Zwecken wie Rufschädigung oder Erpressung sowie der gezielten Verbreitung von Propaganda aller Art.
Falschnachrichten basieren immer öfter auf Deepfakes. Woran man sie erkennt, verrät der Beitrag „Fake News erkennen: Tipps für Kinder und Jugendliche“.
Wenn Jugendliche selbst betroffen sind
Schülerinnen und Schüler sollten sich bewusst sein, dass sie mit ihren öffentlich zugänglichen Fotos, Videos und Stimmen auch selbst als Vorlage für Deepfakes dienen können. Der beste Weg, das zu verhindern, ist, möglichst wenig von sich selbst im Netz zu veröffentlichen.
Wer hingegen selbst Deepfakes erstellt, sollte die rechtlichen Risiken im Blick behalten. Mit der Verbreitung von Deepfakes können Urheberrechte oder das Recht am eigenen Bild und gesprochenen Wort anderer Menschen verletzt werden – und das kann wiederum juristische Konsequenzen haben. Rückt das Deepfake eine bestimmte Person oder eine Gruppe in ein schlechtes Licht, macht sich die Person, die den Inhalt verbreitet, möglicherweise sogar der Verleumdung oder Verhetzung strafbar.
Was Betroffene tun können, wenn sie zur Vorlage für Deepfakes im Internet geworden sind, zeigt der Beitrag „Cyber-Mobbing mit Deepfakes: Wie man sich dagegen wehren kann“.
Für den Inhalt verantwortlich: A-SIT Zentrum für sichere Informationstechnologie – Austria