• Techlounge
  • Posts
  • So geht es nicht weiter - Wir müssen etwas gegen Deepfakes unternehmen

So geht es nicht weiter - Wir müssen etwas gegen Deepfakes unternehmen

Gefälschte Bilder in den Nachrichten sind mittlerweile Teil des Alltags. Nun kommen aber auch KI-generierte Videos. Das daraus entstehende Problem darf nicht unterschätzt werden.

Ganz wichtig: Den Podcast koennt ihr hier direkt oben im Browser, aber auch auf diversen Plattformen wie u.a.

Apple - Spotify - Google - Amazon oder als RSS-Feed

anhören und abonnieren. Gerade Apple & Spotify-Abrufe helfen dem Format, denn dort gibt es entsprechende Rankings!

Wenn ihr dann dort noch Techlounge bewerten könntet, ja vielleicht gar einen Feedback-Kommentar hinterlassen würdet… das hilft unserem Format sehr. Danke!

Die Demokratisierung von KI-generierten Inhalten hat eine neue Stufe erreicht. Text-zu-Video-Modelle wie Googles Veo oder OpenAIs Sora demonstrieren eine beispiellose Qualität: täuschend echte Bilder, glaubwürdige Sprecher, dramatische Musikuntermalung – alles synthetisch erzeugt. Was vor wenigen Jahren noch als Zukunftsmusik galt, ist heute mit wenigen Klicks realisierbar. Und das stellt unsere Gesellschaft vor fundamentale Herausforderungen.

Denn mit der technologischen Mächtigkeit geht auch eine neue Form der Bedrohung einher: Deepfakes, die nicht mehr als solche erkennbar sind. Spätestens seit der russischen Invasion in der Ukraine oder dem Gaza-Konflikt kursieren gefälschte Bilder und Videos, die gezielt zur Meinungsbildung eingesetzt werden. Selbst erfahrene Journalistinnen und Journalisten haben Schwierigkeiten, authentische Aufnahmen von Fälschungen zu unterscheiden. Der Schaden für demokratische Diskurse, für politische Stabilität und das Vertrauen in Medien ist kaum zu beziffern.

Das technische Problem ist vielschichtig. Zwar versehen die großen Anbieter ihre generierten Inhalte mit Wasserzeichen – sei es sichtbar oder als Metadaten. Doch diese lassen sich leicht umgehen oder gar entfernen. Und da viele Modelle Open Source sind, entstehen zunehmend Versionen, die keinerlei Kennzeichnungspflicht mehr enthalten. In wenigen Jahren wird es möglich sein, vollsynthetische Videos lokal zu produzieren, ohne dass sie sich von echten Inhalten unterscheiden lassen.

Diese Entwicklung trifft auf ein ohnehin fragiles öffentliches Vertrauen. Plattformen wie TikTok, Instagram und YouTube haben sich als zentrale Distributionskanäle etabliert. Doch ihre Algorithmen sind Black Boxes: Es ist unklar, welche Inhalte warum ausgespielt werden. Und genau hier liegt die zweite Ebene der Bedrohung: Nicht nur die Fälschung selbst ist das Problem, sondern deren gezielte Verbreitung. Wer mit viralen Fake-Videos politische Narrative beeinflusst, kann in Demokratien immensen Schaden anrichten.

Die Lösung muss auf zwei Ebenen erfolgen: technisch und regulatorisch. Plattformen müssen verpflichtet werden, Wasserzeichen nicht nur zu erkennen, sondern beim Upload zu prüfen. Inhalte ohne digitalen Herkunftsnachweis dürfen nicht verbreitet werden. Gleichzeitig braucht es Kennzeichnungen à la "Dieses Video wurde mit KI erstellt" – dauerhaft eingeblendet, nicht manipulierbar. Und dort, wo gegen solche Standards verstoßen wird, müssen Sanktionen greifen.

Auch die Ersteller solcher Inhalte sind in der Verantwortung. Wer bewusst Deepfakes zur Irreführung produziert und verbreitet, muss mit rechtlichen Konsequenzen rechnen. Erste Gesetzesinitiativen wie in Bayern, die Strafen bis zu zwei Jahren für gezielte Desinformation vorsehen, sind ein richtiger Schritt. Wichtig ist dabei aber auch, dass keine Zensur entsteht. Es darf kein "Wahrheitsministerium" geben, das entscheidet, was publiziert werden darf. Vielmehr müssen technische Verfahren wie digitale Signaturen oder Validierungsplattformen geschaffen werden, die objektiv Herkunft und Integrität von Inhalten nachweisen.

Das Problem ist nicht neu – neu ist die Geschwindigkeit und Skalierung. Schon Social Media hat gezeigt, wie schnell sich Falschinformationen verbreiten. Doch mit Deepfakes erreichen wir eine neue Dimension. Videos wirken emotionaler, unmittelbarer als Texte oder Bilder. Wer sie sieht, glaubt ihnen eher – vor allem, wenn sie ins eigene Weltbild passen. In digitalen Echokammern wird aus einem Video schnell eine gefühlte Wahrheit.

Deshalb braucht es einen pragmatischen, aber entschlossenen Umgang mit KI-generierten Inhalten. Das heißt auch, die Plattformen in die Pflicht zu nehmen: Wer mit Deepfakes Profite macht, indem er sie verbreitet und monetarisiert, handelt im Zweifel wie ein Händler gestohlener Ware. Und so wie es im Lebensmittelrecht strenge Auflagen gibt, müssen sie auch im digitalen Raum greifen. Wir schützen unsere Nahrung vor Schadstoffen – warum nicht auch unsere Informationskanäle?

Europa steht dabei vor einer großen Aufgabe. Die Regulierung muss schnell, wirksam und international anschlussfähig sein. Es braucht klare Regeln für KI-generierte Inhalte, offene Algorithmen und Transparenzpflichten. Und es braucht Aufklärung: Nur wer weiß, dass Inhalte gefälscht sein könnten, wird kritischer konsumieren. Die Massen werden sich nicht komplett schützen lassen – aber sie verdienen es, zumindest gewarnt zu werden.

Der Tsunami synthetischer Inhalte rollt bereits. Jetzt liegt es an Politik, Tech-Industrie und Gesellschaft, gemeinsam Schutzdämme zu bauen – bevor die Fundamente unserer demokratischen Kommunikation unterspült werden.

  • Deepfakes - Gefahren und Gegenmaßnahmen
    "Verfahren zur Manipulation von medialen Identitäten existieren bereits seit vielen Jahren. So ist es allgemein bekannt, dass Bilder durch vielfältige Methoden manipuliert werden können. Lange Zeit war es sehr aufwändig, dynamische Medien, wie Videos oder Audiomitschnitte qualitativ hochwertig zu manipulieren. Durch Methoden aus dem Bereich der Künstlichen Intelligenz (KI) ist dies heute jedoch deutlich einfacher und Fälschungen können mit vergleichsweise wenig Aufwand und Expertise in einer hohen Qualität erstellt werden. Aufgrund der Nutzung von tiefen neuronalen Netzen (englisch: deep neural networks), werden solche Verfahren umgangssprachlich als „Deepfakes“ bezeichnet.

  • Deepfakes – Wie Videos gefälscht werden
    Was sagt Obama da bitte über Trump? Und warum trägt Schaffi ein violettes Kleid? Echt oder Fake? Deepfake! Videos und Audios können mittlerweile sehr gut manipulieret werden. Wie das geht und woran man einen Deepfake erkennt, erklären die "so geht MEDIEN"-Hosts Sebastian und Christina – eine Unterrichtseinheit mit Video, Quiz und Arbeitsblatt sowie Stundenablauf und vertiefenden Informationen.

  • Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann
    Zeitgleich werden schon jetzt Deep- und Cheapfakes gleichermaßen genutzt, um Desinformationen und Propaganda zu verbreiten. Dafür werden Bilder und Videos so manipuliert, dass sie als vermeintliche Beweise für aufsehenerregende Ereignisse oder Aussagen dienen. Diese Fakes können massive Folgen für die gesellschaftliche und politische Realität haben. Kurz nach Beginn des russischen Angriffskriegs auf die Ukraine etwa verbreitete sich ein Video des ukrainischen Präsidenten Wolodymyr Selenskyj, in dem dieser die ukrainische Armee zur Kapitulation aufrief.”

Infografik der Woche