Wie man KI-generierte Videos erkennt, während Deepfakes im Internet immer häufiger verbreitet werden und Millionen von Menschen täuschen.

Wir stehen am Beginn einer völlig neuen Ära von Online-Videoinhalten – und Experten warnen vor einer ziemlich gefährlichen. KI-generierte Videos überschwemmen die sozialen Medien , und digitale Täuschung hat ein Rekordhoch erreicht. Hier erfahren Sie, wie Sie Fälschungen von echten Inhalten unterscheiden können.
Ein Technologieexperte warnte davor, dass ultrarealistische KI-Videotools, die über Plattformen wie Sora 2 verfügbar sind, von Betrügern genutzt werden, um eine Welle von Deepfake -Betrügereien im Internet auszulösen.
Die Zahl der Deepfake-Videos ist von einer halben Million im Jahr 2023 auf über acht Millionen in diesem Jahr sprunghaft angestiegen. Betrugsversuche haben sich laut dem Cybersicherheitsunternehmen DeepStrike innerhalb von nur zwei Jahren um 3.000 % erhöht. Die Experten erklärten, dass es immer schwieriger wird, zwischen echt und gefälscht zu unterscheiden, da Menschen hochwertige Deepfakes nur noch in einem von vier Fällen erkennen können. Das bedeutet, dass Millionen von Menschen getäuscht werden könnten, ohne es zu merken.

Die Deepfakes und KI-generierten Videos begannen als unterhaltsamer Internettrend, haben sich aber mittlerweile rasant zu einer milliardenschweren kriminellen Industrie entwickelt, da Betrüger KI nutzen, um Stimmen, Gesichter und Emotionen zu klonen – und so ihre Opfer dazu zu bringen, Geld herauszugeben oder Fake News zu verbreiten.
Es ist wahrscheinlich, dass auch Deepfake-Videoanrufe in Echtzeit zunehmen werden, bei denen Betrüger live auf dem Bildschirm Angehörige oder Vorgesetzte imitieren, komplett mit geklonten Stimmen und Manierismen - und dies ist auf Tools zurückzuführen, die von Plattformen wie Sora angeboten werden, einer Text-zu-Video-App, die in der Lage ist, realistische Videos in weniger als einer Minute zu erstellen.
Für weitere Geschichten dieser Art abonnieren Sie unseren wöchentlichen Newsletter „The Weekly Gulp“ . Darin finden Sie eine kuratierte Zusammenfassung aktueller Geschichten, bewegender Interviews und viraler Lifestyle-Tipps des Audience U35-Teams von The Mirror, die direkt in Ihren Posteingang geliefert wird.
Das Team des Technologie- und Softwareunternehmens Outplayed hat einige wichtige Methoden zur einfachen Erkennung von KI-generierten Videos detailliert beschrieben. Dazu gehören:
- Blinzeln und Augen: Die Probanden blinzeln weniger oder bewegen ihre Augen in roboterhaften Mustern.
- Hände und Finger: Achten Sie auf verzerrte oder zusammengewachsene Finger – die KI hat immer noch Schwierigkeiten mit Händen.
- Beleuchtungsfehler: Schatten fallen in seltsame Richtungen oder Gesichter wirken zu hell.
- Wasser und Spiegelungen: Flüssigkeiten wirken „zu perfekt“ oder unnatürlich still.
- Probleme mit der Lippensynchronisation: Die Lippenbewegungen stimmen nicht ganz mit den Wörtern überein – insbesondere bei den Lauten „p“ und „b“.
- Glatte Haut: KI-Gesichter wirken wie aus Plastik, ohne Poren oder Textur.
- Fehlerhafte Hintergründe: Verzerrte Objekte oder flackernde Kanten verraten das Spiel, ebenso wie nicht versteckte Wasserzeichen.
- Stoffbewegung: Kleidung bewegt sich im Wind steif oder unnatürlich.
- Szenenübergänge: Ungeschickte Sprünge oder abrupte Schnitte mitten in der Aufnahme deuten auf künstlichen Schnitt hin.
- Seltsamer Kontext: Personen, die sich ungewöhnlich verhalten oder an ungewöhnlichen Orten auftauchen.
- Bauchgefühl: Wenn es sich komisch anfühlt, dann stimmt es wahrscheinlich auch nicht.
Einer der Experten von Outplayed mahnt zur Vorsicht angesichts der rasanten Entwicklung dieser Technologie . „Was früher Hollywood-Studios Wochen kostete, kann heute jeder mit einem Laptop produzieren. Videos, die mit den neuesten KI-Tools wie Sora 2 erstellt wurden, sind von der Realität kaum zu unterscheiden – und das ist beängstigend, wenn sie missbraucht werden“, so der Experte.
Menschen werden über soziale Medien, im Geschäftsleben und sogar in Liebesbeziehungen betrogen – denn diese Kriminellen nutzen den weit verbreiteten Glauben aus, dass man alles glauben soll, was man sieht. Der Experte fügte hinzu: „Viele Menschen vertrauen Videobeweisen. Deshalb befinden wir uns in einer gefährlichen neuen Ära, in der Deepfakes rasant zunehmen. Sie umgehen die Logik und zielen direkt auf die Emotionen ab.“
Sora wurde mittlerweile über eine Million Mal heruntergeladen, und Nutzer erstellen kurze Clips, die bereits für Kontroversen sorgen. Viele erstellen solche Clips von Prominenten wie Jake Paul und Michael Jackson, wodurch die Grenze zwischen Fiktion und Realität besorgniserregend verschwimmt.
Nachdem vermehrt respektlose Deepfaker aufgetaucht waren, sahen sich die Entwickler der Plattform gezwungen, Videos mit Martin Luther King Jr. zu verbieten, was die wachsenden ethischen Herausforderungen im Zusammenhang mit dieser Technologie verdeutlichte.
Helfen Sie uns, unsere Inhalte zu verbessern, indem Sie die untenstehende Umfrage ausfüllen. Wir freuen uns auf Ihr Feedback!
Daily Mirror




