Nachrichten

Neues KI-Tool analysiert die Reflexion in den Augen von Menschen, um Deepfakes zu erkennen

Nach der rasanten Entwicklung von KI-basierten Technologien ist es einfacher denn je, die Massen mit gefälschten Bildern und Videos zu täuschen. Unternehmen wie Facebook, Reddit und Microsoft haben bereits Möglichkeiten und Tools entwickelt, um tiefgreifende Inhalte auf sozialen Plattformen zu erkennen. Jetzt hat ein Team von Informatikern ein neues AI-basiertes Deepfake-Erkennungswerkzeug entwickelt. Es erkennt ein tiefes falsches Bild, indem es die Lichtreflexionen auf den Augen des Motivs untersucht.

Das AI Deepfake Detector Tool misst die Reflexion in den Augen

Das neue Tool, entwickelt von Informatikern der University of Buffalo, ist ein relativ einfaches System. Es hat sich jedoch als zu 94% wirksam bei der Erkennung von Deepfake-Inhalten erwiesen.

Für Uneingeweihte werden gefälschte Bilder und Videos von AI-basierten Apps generiert, die Tausende von Fotos und Videos von verschiedenen realen Personen analysieren. Nach ihrer Analyse können die Tools realistisch aussehende Bilder und Videos einer Person erstellen, die noch nicht einmal existiert. Darüber hinaus können sie verwendet werden, um falsche Gesichter populärer Prominenter zu generieren, um Fehlinformationen zu verbreiten und die Massen online zu täuschen.

Um die falschen Ergebnisse zu erzielen, analysieren die KI-Tools die verschiedenen Ressourcen, um zu verstehen, wie sich eine Person bewegt, lächelt oder die Stirn runzelt. Sie können die Informationen dann verwenden, um auf intelligente Weise digitale Klone anderer Personen zu erstellen, die sehr realistisch aussehen.

Wie funktioniert es?

Allgemeine Deepfake-Erkennungswerkzeuge analysieren jetzt Inhalte, um unnatürliche Faktoren wie unregelmäßige Gesichtsbewegungen oder übermäßige Hautglättung festzustellen. Das neue Tool basiert jedoch auf der Reflexion von Licht in den Augen der Probanden, um tief gefälschte Bilder und Videos zu erkennen.

Laut den Wissenschaftlern liegt dies daran, dass die Die Reflexion einer Lichtquelle auf den Augen eines Subjekts wird von einem AI-basierten Tool nicht berücksichtigt beim Generieren von Deepfake-Inhalten. Infolgedessen zeigen die Augen in tiefen Bildern unterschiedliche Reflexionen auf jeder der Hornhäute, während sie auf beiden Augen gleich sein sollten, wenn das Motiv real ist. Sie können sich ein Vergleichsbild unten ansehen, um es besser zu verstehen.

Neues Deepfake-Erkennungswerkzeug

Die Wissenschaftler fügen hinzu, dass die Deepfake-Generierungswerkzeuge auch die menschliche Anatomie nicht vollständig verstehen und nicht wissen, wie sich bestimmte Elemente bei der Interaktion mit der physischen Welt ändern. Die Reflexion in den Augen ist einer der Faktoren, die sich je nach Lichtquelle vor dem Motiv zum Zeitpunkt der Aufnahme eines Bildes oder Videos ändern.

Dieses Deepfake-Tool nutzt diese Inkonsistenz im Deepfake-Inhalt, um sie erfolgreich zu erkennen. Es analysiert ein Bild und generiert eine Ähnlichkeitsmetrik. Eine Metrik mit hoher Ähnlichkeit bedeutet, dass es unwahrscheinlich ist, dass das Bild eine Fälschung ist, während eine niedrige Punktzahl eine höhere Wahrscheinlichkeit bedeutet, dass das Bild eine Fälschung ist.

Die bekannten Probleme

Nun ist es erwähnenswert, dass das Tool einige eigene Probleme hat. Zum Beispiel funktioniert es nicht, wenn ein Motiv nicht in die Kamera schaut oder ein Auge des Motivs im Bild nicht sichtbar ist. Die Wissenschaftler hoffen jedoch, diese Probleme mit der Weiterentwicklung des Tools in den kommenden Tagen zu beseitigen.

Ab sofort kann das Tool weniger anspruchsvolle Deepfake-Medien problemlos erkennen. Bei Deepfake-Inhalten mit höherer Qualität kann das Tool jedoch Probleme haben und ungenau sein.

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Schaltfläche "Zurück zum Anfang"