Umfassendes KI-Erkennungsglossar von TruthScan

Ein vollständiger Referenzleitfaden zur Terminologie der KI-Erkennung und digitalen Forensik. Durchsuchen oder durchsuchen Sie alle Begriffe, um die Technologie hinter der Inhaltsauthentizität zu verstehen.

A
B
D
E
F
G
H
I
J
K
L
M
P
Q
R
S
T
V
W
X
Y
Z
A

Akustischer Fingerabdruck

Die einzigartigen, messbaren Eigenschaften eines Audiosignals. Genau wie ein menschlicher Fingerabdruck einzigartig ist, hat eine Stimme spezifische Formen in ihren Schallwellen. TruthScan analysiert diese, um Stimmklonen zu erkennen, indem es nach dem Fehlen natürlicher Atemgeräusche oder der Flachheit sucht, die häufig in synthetischer Sprache zu finden ist.

Artefakte

Digitale Verzerrungen, Pixelierung oder visuelle Fehler, die in einer Bild- oder Videodatei auftreten. Im Kontext der KI-Erkennung sind dies häufig generative Artefakte—unlogische Details wie verzerrte Texturen, seltsame Unschärfe oder nicht übereinstimmende Auflösungsblöcke, die darauf hindeuten, dass das Bild synthetisiert wurde, anstatt von einem Kameraobjektiv aufgenommen zu werden.

B

Blinzelraten-Analyse

Eine forensische Technik, die überwacht, wie häufig und natürlich ein Subjekt in einem Video blinzelt. Menschen haben einen halb vorhersagbaren biologischen Blinzelrhythmus. Deepfakes, insbesondere ältere oder minderwertige, zeigen häufig Subjekte, die zu selten, zu schnell oder überhaupt nicht blinzeln.

D

Deepfake

Medien, bei denen die Ähnlichkeit einer Person (Gesicht oder Stimme) mit künstlicher Intelligenz realistisch ausgetauscht oder manipuliert wurde. Im Gegensatz zu standardmäßiger KI-Kunst sind Deepfakes speziell darauf ausgelegt, echte Personen nachzuahmen und sie oft Dinge sagen oder tun zu lassen, die sie nie getan haben.

Diffusionsmuster

Subtile, rauschähnliche Texturen, die spezifisch für Diffusionsmodelle sind (generative KI-Tools wie Midjourney, DALL-E oder Stable Diffusion). Diese Modelle generieren Bilder durch Verfeinerung von statischem Rauschen und hinterlassen häufig ein mikroskopisches, gitterähnliches Muster, das für das bloße Auge unsichtbar, aber durch forensische Algorithmen erkennbar ist.

Digitale Manipulation

Jede Änderung einer Mediendatei mit Softwaretools (wie Photoshop) oder KI-Algorithmen. Während einfache Bearbeitungen wie Helligkeitsanpassungen üblich sind, umfasst forensische Manipulation erhebliche Änderungen—wie das Entfernen von Objekten, Verzerren von Gesichtszügen oder Einfügen falscher Elemente—die den Kontext oder die Wahrhaftigkeit des Bildes verändern. Das Modell sucht nach Inkonsistenzen in der Beleuchtung, Schatten, die nicht zur Lichtquelle passen, oder geklonte Muster.

E

Ensemble-Modell

Eine Erkennungsstrategie, die mehrere verschiedene KI-Modelle verwendet, um denselben Inhalt gleichzeitig zu analysieren. TruthScan verwendet einen Ensemble-Ansatz, um Fehler zu minimieren; wenn ein Modell auf die Erkennung von Midjourney-Bildern spezialisiert ist und ein anderes auf Photoshop-Bearbeitungen, gewährleistet ihre gemeinsame Verwendung eine breitere Abdeckung und Genauigkeit.

Erkennungs-Hitzekarte

Ein visuelles Berichtstool, das einen Farbverlauf über das analysierte Bild oder den Videorahmen legt. Anstatt eines einfachen Falsch-Labels hebt die Hitzekarte die spezifischen Bereiche hervor, in denen Manipulationen erkannt wurden (z. B. Färbung eines Gesichts rot, um einen Deepfake anzuzeigen, während der Hintergrund blau bleibt).

EXIF-Informationen

Ein spezifischer Standard zum Speichern von Metadaten in Bilddateien. Es fungiert als digitales Logbuch und zeichnet technische Details wie Kameramarke/-modell, Verschlusszeit, Brennweite, Datum und manchmal GPS-Koordinaten auf. Das Modell sucht nach Diskrepanzen, wie z. B. ein Bild, das behauptet, von einem iPhone zu sein, aber die spezifischen Software-Tags fehlen, die ein iPhone immer hinzufügt.

F

Falsch-Negative

Ein Fehler, bei dem das Erkennungssystem ein KI-generiertes oder manipuliertes Bild nicht identifiziert und es fälschlicherweise als Real oder Menschlich kennzeichnet. Dies geschieht typischerweise bei hochsophistizierten KI-Modellen der nächsten Generation oder Bildern, die stark komprimiert wurden, um ihre digitalen Fingerabdrücke zu verbergen.

Falsch-Positiv

Eine Instanz, bei der das Erkennungssystem authentischen, von Menschen erstellten Inhalt fälschlicherweise als KI-generiert identifiziert. Obwohl Systeme darauf ausgelegt sind, dies zu minimieren, können Falsch-Positive gelegentlich durch starke Kompression, extreme Filterung oder niedrigauflösende Dateien ausgelöst werden.

G

Geisterbild / Geisterbild

Eine visuelle Anomalie, bei der ein Objekt eine schwache, durchscheinende Duplikate oder Spur in der Nähe zu haben scheint. Dies ist ein häufiger Fehler bei der KI-Generierung, wenn das Modell versucht, sich bewegende Objekte oder komplexe Geometrien zu rendern, was zu einem unscharfen Doppelbelichtungseffekt führt.

H

Hashing

Eine digitale Methode zur Erstellung eines eindeutigen Fingerabdrucks für eine Datei. Wenn auch nur ein einzelnes Pixel in einem Bild geändert wird, ändert sich sein Hash-Wert vollständig. TruthScan verwendet Hashing, um zu überprüfen, ob eine Datei mit einer Datenbank bekannter Deepfakes oder bestätigter unterschiedlicher Originale übereinstimmt.

I

Inpainting

Der Prozess der Verwendung von KI, um nur einen bestimmten Teil eines vorhandenen Bildes zu generieren oder zu ersetzen, während der umgebende Bereich erhalten bleibt. Erkennungstools suchen nach Nähten oder statistischen Inkonsistenzen, wo der KI-generierte Patch auf das ursprüngliche, organische Foto trifft.

J

JPEG-Geister

Schwache, unsichtbare Umrisse, die erscheinen, wenn ein Bild mehrmals in verschiedenen Qualitätsstufen gespeichert wurde. Das Modell erkennt diese nicht übereinstimmenden Komprimierungssignaturen, um eingefügte Objekte oder manipulierte Bereiche zu finden.

K

Keyframe

Ein vollständiges, eigenständiges Bild innerhalb einer Videodatei. Die meisten Videobilder zeichnen nur Änderungen vom vorherigen Moment auf, um Platz zu sparen, aber Keyframes erfassen das vollständige Bild. Wir analysieren Keyframes auf Artefakte mit höherer Auflösung, die im Rest des Videos möglicherweise unscharf sind.

Konfidenzscore

Ein Prozentwert (0–100%), der die Gewissheit des Systems angibt, dass ein Inhalt KI-generiert ist. Ein hoher Score (z. B. 99%) stellt eine definitive Erkennung basierend auf starken Beweisen dar, während ein mittlerer Score (z. B. 55%) Mehrdeutigkeit oder unzureichende Daten nahelegt.

L

Lebendigkeitserkennung

Ein Sicherheitsprozess zur Überprüfung, dass die Person hinter einer Kamera ein echter, atmender Mensch ist, der zu diesem Zeitpunkt anwesend ist. Das Modell sucht nach Mikrobewegungen wie herzfrequenzinduzierter Hautrötung und natürlichem Blinzeln, die KI-Generatoren oft nicht replizieren können.

Lippensynchronisations-Drift

Ein zeitliches Artefakt in Videos, bei dem die Bewegung des Mundes nicht perfekt mit der Audiospur übereinstimmt. Selbst eine Abweichung von wenigen Millisekunden kann ein starker Indikator für einen Deepfake sein, bei dem eine Audiospur ein computergeneriertes Gesicht steuert.

M

Metadaten

Versteckte Daten über Daten, die in einer digitalen Datei eingebettet sind und Details wie das Kameramodell, das Aufnahmedatum und den GPS-Standort enthalten. KI-Generatoren entfernen diese Daten häufig oder fügen ihre eigenen Tags ein. Die forensische Analyse untersucht die Struktur dieser Metadaten, um zu überprüfen, ob sie mit dem angegebenen Quellgerät übereinstimmt.

P

Pixel-Level-Inkonsistenzen

Unregelmäßigkeiten in der Beziehung zwischen benachbarten Pixeln, die für das bloße Auge im Allgemeinen unsichtbar sind. Kameras erstellen Bilder mit einem spezifischen, natürlichen Rauschmuster; KI-Generatoren ordnen Pixel häufig mit mathematischer Präzision oder statistischem Fingerabdruck an, der sich von der natürlichen optischen Erfassung unterscheidet.

Q

Quantisierungstabellen

Das spezifische mathematische Rezept, das eine Kamera oder Software zur Komprimierung eines Bildes verwendet. Wenn ein Bild behauptet, von einer Nikon-Kamera zu sein, aber die Quantisierungstabelle von Adobe Photoshop verwendet, ist dies ein starker Indikator dafür, dass das Bild bearbeitet oder nach der Aufnahme generiert wurde.

R

Rauschen

Die zufällige, körnige Textur, die in allen digitalen Fotografien zu finden ist, ähnlich wie Rauschen auf einem Fernseher. In echten Fotos wird dieses Rauschen durch die Lichtempfindlichkeit des Kamerasensors verursacht und folgt einem spezifischen, einheitlichen Muster. Das Modell sucht nach sauberen Stellen in einem verrauschten Bild oder wiederholten gitterähnlichen Rauschmustern, die typisch für die KI-Generierung sind.

S

Spiegelnde Highlights

Die Reflexion von Lichtquellen, die auf glänzenden Oberflächen sichtbar sind, insbesondere der Augenglanz in den Augen eines Subjekts. In einem echten Foto stimmen Form und Position dieser Reflexionen mit der Umgebung überein (z. B. ein quadratisches Fenster). KI rendert diese oft falsch und erzeugt nicht übereinstimmende oder geometrisch unmögliche Reflexionen.

Stimmklonen

Die Verwendung von KI zur Erzeugung einer synthetischen Stimme, die den Ton, Akzent und die Kadenz einer bestimmten Person nachahmt. Das Modell sucht nach robotischen Artefakten in den Atemmustern oder Frequenzlücken, die menschliche Stimmbänder nicht produzieren können.

Synthetische Persona

Eine fotorealistische digitale Identität—einschließlich eines Gesichts und Profils—die vollständig von KI erstellt wurde. Im Gegensatz zu einem Deepfake, der eine echte Person nachahmt, entspricht eine synthetische Persona keinem Menschen. Diese werden häufig verwendet, um unerkennbare Profile für Social-Media-Bots oder Betrug zu erstellen.

T

Textur

Die Oberflächenqualität und feinen Details eines Objekts in einem Bild, wie Hautporen, Stoffgewebe, Papierkörnung oder einzelne Haarsträhnen. Das Modell sucht nach unnatürlicher Glätte oder plastisch aussehenden Oberflächen, da KI diese komplexen Details oft überhomogenisiert.

V

Vergrößerungsartefakte

Verzerrungen, die eingeführt werden, wenn eine KI versucht, die Auflösung eines unscharfen oder kleinen Bildes zu erhöhen. Das Modell sucht nach paradoxen Details, wie sehr scharfe Wimpern neben unscharfen Hautporen, was darauf hindeutet, dass die KI neue Details auf einem qualitativ minderwertigen Original halluziniert hat.

W

Wasserzeichen (Digital)

Unsichtbare Signale, die von verantwortungsvollen KI-Generatoren (wie Googles SynthID) in Mediendateien eingebettet werden, um sie als KI-erstellt zu kennzeichnen. TruthScan scannt nach diesen spezifischen, versteckten Anbietersignaturen, die bestätigen, dass ein Bild KI-generiert ist.

Wiedereinfang-Angriff

Eine Betrugstechnik, bei der ein Benutzer einen Deepfake oder ein statisches Foto auf einem Bildschirm anzeigt und dann eine zweite Kamera verwendet, um diesen Bildschirm zu filmen. Das Modell sucht nach Moiré-Mustern, Bildschirmblendung oder dem Pixelraster des Monitorgeräts.

X

XMP-Metadaten

Extensible Metadata Platform. Ein Standard, der von Bearbeitungssoftware (wie Adobe) verwendet wird, um Verlaufsprotokolle in einer Bilddatei zu speichern. Das Modell sucht nach Spuren der Bearbeitungshistorie, wie Protokolle, die 'Erstellt mit Stable Diffusion' sagen, auch wenn die Haupt-EXIF-Daten gelöscht wurden.

Y

Y-Kanal-Analyse

Analyse der Luminanz- (Helligkeits-) Schicht eines Bildes getrennt von seiner Farbe. KI bekommt die Farbe oft richtig, vermasselt aber die Beleuchtungsphysik. Durch Entfernen der Farbe und Betrachten nur des Graustufen-Y-Kanals werden diese Beleuchtungsinkonsistenzen viel offensichtlicher.

Z

Zeitliche Artefakte

Visuelle Inkonsistenzen, die im Laufe der Zeit auftreten, anstatt in einem einzelnen Rahmen. In KI-Videos können Elemente wie Hautton, Brille oder Hintergrundtexturen flackern, vibrieren oder sich von Rahmen zu Rahmen unnatürlich verschieben, während die KI versucht, die zeitliche Konsistenz aufrechtzuerhalten.

Zero-Shot-Erkennung

Die Fähigkeit eines Erkennungsmodells, eine Fälschung von einem neuen KI-Generator zu identifizieren, den es noch nie zuvor gesehen hat. Das Modell sucht nach universellen Fehlern—wie Verstöße gegen die Beleuchtungsphysik—die alle aktuellen KI-Modelle tendenziell machen, unabhängig davon, wer sie gebaut hat.