Umfassendes KI-Erkennungsglossar von TruthScan

Ein vollständiger Referenzleitfaden zur Terminologie der KI-Erkennung und digitalen Forensik. Durchsuchen oder durchsuchen Sie alle Begriffe, um die Technologie hinter der Inhaltsauthentizität zu verstehen.

A
B
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z

A

Adversarialer Angriff

Techniken, die darauf ausgelegt sind, KI-Erkennungssysteme zu täuschen, indem kleine, bewusste Änderungen an Bildern oder Audio vorgenommen werden. Angreifer können unmerkliche Störungen hinzufügen oder Transformationen anwenden, um Detektoren zu umgehen. Robuste Erkennungsmodelle werden trainiert, solchen Umgehungsversuchen zu widerstehen.

Akustischer Fingerabdruck

Die einzigartigen, messbaren Eigenschaften eines Audiosignals. Genau wie ein menschlicher Fingerabdruck einzigartig ist, hat eine Stimme spezifische Formen in ihren Schallwellen. TruthScan analysiert diese, um Stimmklonen zu erkennen, indem es nach dem Fehlen natürlicher Atemgeräusche oder der Flachheit sucht, die häufig in synthetischer Sprache zu finden ist.

Artefakte

Digitale Verzerrungen, Pixelierung oder visuelle Fehler, die in einer Bild- oder Videodatei auftreten. Im Kontext der KI-Erkennung sind dies häufig generative Artefakte—unlogische Details wie verzerrte Texturen, seltsame Unschärfe oder nicht übereinstimmende Auflösungsblöcke, die darauf hindeuten, dass das Bild synthetisiert wurde, anstatt von einem Kameraobjektiv aufgenommen zu werden.

B

Beweiskette

Ein dokumentierter Prozess, der verfolgt, wer digitale Beweise wann bearbeitet hat und deren Integrität von der Erfassung bis zur Analyse sicherstellt. Bei forensischen Untersuchungen ist die Wahrung der Beweiskette entscheidend, um zu beweisen, dass Mediendateien zwischen Erfassung und Erkennung nicht verändert wurden.

Blinzelraten-Analyse

Eine forensische Technik, die überwacht, wie häufig und natürlich ein Subjekt in einem Video blinzelt. Menschen haben einen halb vorhersagbaren biologischen Blinzelrhythmus. Deepfakes, insbesondere ältere oder minderwertige, zeigen häufig Subjekte, die zu selten, zu schnell oder überhaupt nicht blinzeln.

Überglättung

Ein visuelles Merkmal, bei dem Texturen (wie Haut oder Stoff) natürliche Details fehlen und plastisch oder wachsartig erscheinen. KI-Modelle mitteln häufig komplexe Details aus, die sie nicht verstehen, was zu Haut führt, die aussieht, als wäre sie stark retuschiert worden.

D

Deepfake

Medien, bei denen die Ähnlichkeit einer Person (Gesicht oder Stimme) mit künstlicher Intelligenz realistisch ausgetauscht oder manipuliert wurde. Im Gegensatz zu standardmäßiger KI-Kunst sind Deepfakes speziell darauf ausgelegt, echte Personen nachzuahmen und sie oft Dinge sagen oder tun zu lassen, die sie nie getan haben.

Diffusionsmuster

Subtile, rauschähnliche Texturen, die spezifisch für Diffusionsmodelle sind (generative KI-Tools wie Midjourney, DALL-E oder Stable Diffusion). Diese Modelle generieren Bilder durch Verfeinerung von statischem Rauschen und hinterlassen häufig ein mikroskopisches, gitterähnliches Muster, das für das bloße Auge unsichtbar, aber durch forensische Algorithmen erkennbar ist.

Digitale Manipulation

Jede Änderung einer Mediendatei mit Softwaretools (wie Photoshop) oder KI-Algorithmen. Während einfache Bearbeitungen wie Helligkeitsanpassungen üblich sind, umfasst forensische Manipulation erhebliche Änderungen—wie das Entfernen von Objekten, Verzerren von Gesichtszügen oder Einfügen falscher Elemente—die den Kontext oder die Wahrhaftigkeit des Bildes verändern. Das Modell sucht nach Inkonsistenzen in der Beleuchtung, Schatten, die nicht zur Lichtquelle passen, oder geklonte Muster.

E

ELA (Fehlerebenenanalyse)

Eine forensische Technik, die ein Bild in bekannter Qualitätsstufe erneut speichert und die resultierende Kompression vergleicht. Bearbeitete oder KI-generierte Bereiche zeigen häufig andere Fehlerebenen als das Original—hinzugefügte oder veränderte Bereiche stechen in der Analyse heller oder dunkler hervor.

Ensemble-Modell

Eine Erkennungsstrategie, die mehrere verschiedene KI-Modelle verwendet, um denselben Inhalt gleichzeitig zu analysieren. TruthScan verwendet einen Ensemble-Ansatz, um Fehler zu minimieren; wenn ein Modell auf die Erkennung von Midjourney-Bildern spezialisiert ist und ein anderes auf Photoshop-Bearbeitungen, gewährleistet ihre gemeinsame Verwendung eine breitere Abdeckung und Genauigkeit.

Erkennungs-Hitzekarte

Ein visuelles Berichtstool, das einen Farbverlauf über das analysierte Bild oder den Videorahmen legt. Anstatt eines einfachen Falsch-Labels hebt die Hitzekarte die spezifischen Bereiche hervor, in denen Manipulationen erkannt wurden (z. B. Färbung eines Gesichts rot, um einen Deepfake anzuzeigen, während der Hintergrund blau bleibt).

EXIF-Informationen

Ein spezifischer Standard zum Speichern von Metadaten in Bilddateien. Es fungiert als digitales Logbuch und zeichnet technische Details wie Kameramarke/-modell, Verschlusszeit, Brennweite, Datum und manchmal GPS-Koordinaten auf. Das Modell sucht nach Diskrepanzen, wie z. B. ein Bild, das behauptet, von einem iPhone zu sein, aber die spezifischen Software-Tags fehlen, die ein iPhone immer hinzufügt.

F

Falsch-Negative

Ein Fehler, bei dem das Erkennungssystem ein KI-generiertes oder manipuliertes Bild nicht identifiziert und es fälschlicherweise als Real oder Menschlich kennzeichnet. Dies geschieht typischerweise bei hochsophistizierten KI-Modellen der nächsten Generation oder Bildern, die stark komprimiert wurden, um ihre digitalen Fingerabdrücke zu verbergen.

Falsch-Positiv

Eine Instanz, bei der das Erkennungssystem authentischen, von Menschen erstellten Inhalt fälschlicherweise als KI-generiert identifiziert. Obwohl Systeme darauf ausgelegt sind, dies zu minimieren, können Falsch-Positive gelegentlich durch starke Kompression, extreme Filterung oder niedrigauflösende Dateien ausgelöst werden.

G

GAN (Generatives Adversariales Netzwerk)

Eine KI-Architektur, bei der zwei neuronale Netze konkurrieren: ein Generator erstellt gefälschte Inhalte und ein Diskriminator versucht, sie zu erkennen. Viele frühe Deepfakes und synthetische Bilder nutzten GANs. Erkennungsmodelle werden trainiert, die charakteristischen Artefakte zu erkennen, die GANs tendenziell produzieren.

Geisterbild / Geisterbild

Eine visuelle Anomalie, bei der ein Objekt eine schwache, durchscheinende Duplikate oder Spur in der Nähe zu haben scheint. Dies ist ein häufiger Fehler bei der KI-Generierung, wenn das Modell versucht, sich bewegende Objekte oder komplexe Geometrien zu rendern, was zu einem unscharfen Doppelbelichtungseffekt führt.

Gesichtsmorphing

Eine Technik, die zwei oder mehr Gesichter zu einem einzigen, nahtlosen Übergang verschmilzt. Bei Identitätsbetrug und der Erstellung synthetischer Personas können gemorphte Gesichter Erkennungssysteme umgehen. Die Erkennung sucht nach inkonsistenten Gesichtsmerkmalen oder Blendartefakten.

Gesichtstausch

Eine spezifische Art von Deepfake, die das Gesicht einer Person durch ein anderes in Video oder Bildern ersetzt. Im Gegensatz zur vollständigen Gesichtssynthese transplantiert der Gesichtstausch ein bestehendes Gesicht auf einen anderen Körper oder eine andere Szene. Die Erkennung konzentriert sich auf Randartefakte, Beleuchtungsinkonsistenzen und unnatürliche Gesichtsbewegungen.

H

Halluzination

Wenn ein KI-Modell plausibel aussehende Details generiert, die sachlich falsch, inkonsistent oder unsinnig sind. Bei Bildern kann sich dies als zusätzliche Finger, unmögliche Objekte oder logisch inkohärente Hintergründe manifestieren. Die Erkennung kann diese semantischen oder strukturellen Unmöglichkeiten identifizieren.

Hashing

Eine digitale Methode zur Erstellung eines eindeutigen Fingerabdrucks für eine Datei. Wenn auch nur ein einzelnes Pixel in einem Bild geändert wird, ändert sich sein Hash-Wert vollständig. TruthScan verwendet Hashing, um zu überprüfen, ob eine Datei mit einer Datenbank bekannter Deepfakes oder bestätigter unterschiedlicher Originale übereinstimmt.

I

Inhaltsherkunft

Informationen, die die Herkunft und Bearbeitungshistorie eines Medienstücks nachverfolgen. Standards wie C2PA (Coalition for Content Provenance and Authenticity) und CAI (Content Authenticity Initiative) ermöglichen kryptografische Signierung, sodass Betrachter überprüfen können, wie Inhalte erstellt und geändert wurden.

Inpainting

Der Prozess der Verwendung von KI, um nur einen bestimmten Teil eines vorhandenen Bildes zu generieren oder zu ersetzen, während der umgebende Bereich erhalten bleibt. Erkennungstools suchen nach Nähten oder statistischen Inkonsistenzen, wo der KI-generierte Patch auf das ursprüngliche, organische Foto trifft.

J

JPEG-Geister

Schwache, unsichtbare Umrisse, die erscheinen, wenn ein Bild mehrmals in verschiedenen Qualitätsstufen gespeichert wurde. Das Modell erkennt diese nicht übereinstimmenden Komprimierungssignaturen, um eingefügte Objekte oder manipulierte Bereiche zu finden.

K

Keyframe

Ein vollständiges, eigenständiges Bild innerhalb einer Videodatei. Die meisten Videobilder zeichnen nur Änderungen vom vorherigen Moment auf, um Platz zu sparen, aber Keyframes erfassen das vollständige Bild. Wir analysieren Keyframes auf Artefakte mit höherer Auflösung, die im Rest des Videos möglicherweise unscharf sind.

Klonerkennung

Eine forensische Technik, die Bereiche eines Bildes identifiziert, die an anderer Stelle im selben Bild dupliziert wurden. Erkennungsalgorithmen vergleichen Pixelblöcke und suchen nach statistisch identischen oder nahezu identischen Bereichen, was darauf hinweist, dass ein Angreifer eine Region geklont hat, um Inhalte zu verbergen oder zu verändern.

Kompressionsartefakte

Verzerrungen, die entstehen, wenn ein Bild oder Video komprimiert und dekomprimiert wird (z. B. JPEG, MPEG). Diese unterscheiden sich von generativen Artefakten—Kompression verursacht Blockigkeit, Ringing oder Farbbänderung. Die forensische Analyse kann Neukompression oder inkonsistente Kompression über Regionen hinweg erkennen.

Konfidenzscore

Ein Prozentwert (0–100%), der die Gewissheit des Systems angibt, dass ein Inhalt KI-generiert ist. Ein hoher Score (z. B. 99%) stellt eine definitive Erkennung basierend auf starken Beweisen dar, während ein mittlerer Score (z. B. 55%) Mehrdeutigkeit oder unzureichende Daten nahelegt.

Kopier-Einfüge-Fälschung

Eine Art der Bildfälschung, bei der ein Bereich von einer Stelle eines Bildes kopiert und an anderer Stelle im selben Bild eingefügt wird. Angreifer nutzen Kopieren-Einfügen, um Objekte zu verbergen, Elemente zu duplizieren oder gefälschte Szenen zu erstellen. Forensische Tools erkennen dies durch statistisch identische Pixelblöcke.

L

Lebendigkeitserkennung

Ein Sicherheitsprozess zur Überprüfung, dass die Person hinter einer Kamera ein echter, atmender Mensch ist, der zu diesem Zeitpunkt anwesend ist. Das Modell sucht nach Mikrobewegungen wie herzfrequenzinduzierter Hautrötung und natürlichem Blinzeln, die KI-Generatoren oft nicht replizieren können.

Lippensynchronisations-Drift

Ein zeitliches Artefakt in Videos, bei dem die Bewegung des Mundes nicht perfekt mit der Audiospur übereinstimmt. Selbst eine Abweichung von wenigen Millisekunden kann ein starker Indikator für einen Deepfake sein, bei dem eine Audiospur ein computergeneriertes Gesicht steuert.

M

Manipulation / Verfälschung

Die absichtliche Änderung digitaler Medien, um Betrachter zu täuschen. Breiter als digitale Manipulation umfasst Manipulation jede Änderung, die dazu dient, die Realität zu verfälschen—vom Spleißen von Bildern bis zur Änderung von Metadaten. Erkennungssysteme sind darauf ausgelegt, Anzeichen von Manipulation zu identifizieren.

Metadaten

Versteckte Daten über Daten, die in einer digitalen Datei eingebettet sind und Details wie das Kameramodell, das Aufnahmedatum und den GPS-Standort enthalten. KI-Generatoren entfernen diese Daten häufig oder fügen ihre eigenen Tags ein. Die forensische Analyse untersucht die Struktur dieser Metadaten, um zu überprüfen, ob sie mit dem angegebenen Quellgerät übereinstimmt.

Modell-Fingerabdruck

Der Prozess der Identifizierung, welches KI-Modell oder welcher Generator ein Stück Inhalt erstellt hat. Verschiedene Modelle hinterlassen unterschiedliche statistische oder strukturelle Signaturen. Forensische Tools können synthetische Inhalte manchmal bestimmten Anbietern wie Midjourney, DALL-E oder Stable Diffusion zuordnen.

N

Neuronales Rendering

KI-gestützte Techniken, die Bilder und Videos mit gelernten Darstellungen synthetisieren oder manipulieren. Dazu gehören neurale Strahlungsfelder (NeRF), neurale Textursynthese und ähnliche Methoden. Die Erkennung sucht nach den charakteristischen Artefakten, die diese Ansätze produzieren.

O

Outpainting

Der KI-Prozess, ein Bild über seine ursprünglichen Grenzen hinaus zu erweitern und neuen Inhalt zu generieren, um die erweiterte Fläche zu füllen. Im Gegensatz zum Inpainting, das Löcher innerhalb eines Bildes füllt, fügt Outpainting peripheren Inhalt hinzu. Die Erkennung sucht nach Nähten oder Inkonsistenzen, wo generierte Erweiterungen auf den Originalrahmen treffen.

P

Pixel-Level-Inkonsistenzen

Unregelmäßigkeiten in der Beziehung zwischen benachbarten Pixeln, die für das bloße Auge im Allgemeinen unsichtbar sind. Kameras erstellen Bilder mit einem spezifischen, natürlichen Rauschmuster; KI-Generatoren ordnen Pixel häufig mit mathematischer Präzision oder statistischem Fingerabdruck an, der sich von der natürlichen optischen Erfassung unterscheidet.

Q

Quantisierungstabellen

Das spezifische mathematische Rezept, das eine Kamera oder Software zur Komprimierung eines Bildes verwendet. Wenn ein Bild behauptet, von einer Nikon-Kamera zu sein, aber die Quantisierungstabelle von Adobe Photoshop verwendet, ist dies ein starker Indikator dafür, dass das Bild bearbeitet oder nach der Aufnahme generiert wurde.

Quellenzuordnung

Die Bestimmung, welches Gerät, welche Software oder welches KI-Modell ein Stück Inhalt produziert hat. Dies kann die Analyse von Metadaten, Kompressions-Fingerabdrücken oder modellspezifischen Artefakten umfassen. Die Quellenzuordnung hilft, die Authentizität zu überprüfen und Manipulation nachzuverfolgen.

R

Rauschen

Die zufällige, körnige Textur, die in allen digitalen Fotografien zu finden ist, ähnlich wie Rauschen auf einem Fernseher. In echten Fotos wird dieses Rauschen durch die Lichtempfindlichkeit des Kamerasensors verursacht und folgt einem spezifischen, einheitlichen Muster. Das Modell sucht nach sauberen Stellen in einem verrauschten Bild oder wiederholten gitterähnlichen Rauschmustern, die typisch für die KI-Generierung sind.

S

Spiegelnde Highlights

Die Reflexion von Lichtquellen, die auf glänzenden Oberflächen sichtbar sind, insbesondere der Augenglanz in den Augen eines Subjekts. In einem echten Foto stimmen Form und Position dieser Reflexionen mit der Umgebung überein (z. B. ein quadratisches Fenster). KI rendert diese oft falsch und erzeugt nicht übereinstimmende oder geometrisch unmögliche Reflexionen.

Spleißen

Eine Form der Bildfälschung, bei der Bereiche aus verschiedenen Quellbildern zu einem einzigen Komposit zusammengefügt werden. Auch Compositing oder Ausschneiden und Einfügen genannt. Die Erkennung sucht nach Beleuchtungs-, Perspektiv- oder Texturinkonsistenzen zwischen den gespleißten Bereichen.

Stiltransfer

Eine KI-Technik, die den visuellen Stil eines Bildes (z. B. ein Gemälde) auf den Inhalt eines anderen anwendet. Obwohl oft für künstlerische Wirkung verwendet, kann sie auch Manipulation verdecken. Die Erkennung kann unnatürliche Stilgrenzen oder statistische Fingerabdrücke von Stiltransfer-Modellen identifizieren.

Stimmabdruck

Ein biometrischer Identifikator, der aus den einzigartigen Eigenschaften der Stimme einer Person abgeleitet wird—ähnlich einem akustischen Fingerabdruck. Stimmabdrücke können zur Authentifizierung oder zur Erkennung verwendet werden, wenn synthetische Sprache eine bekannte Stimme imitiert.

Stimmklonen

Die Verwendung von KI zur Erzeugung einer synthetischen Stimme, die den Ton, Akzent und die Kadenz einer bestimmten Person nachahmt. Das Modell sucht nach robotischen Artefakten in den Atemmustern oder Frequenzlücken, die menschliche Stimmbänder nicht produzieren können.

Synthetische Persona

Eine fotorealistische digitale Identität—einschließlich eines Gesichts und Profils—die vollständig von KI erstellt wurde. Im Gegensatz zu einem Deepfake, der eine echte Person nachahmt, entspricht eine synthetische Persona keinem Menschen. Diese werden häufig verwendet, um unerkennbare Profile für Social-Media-Bots oder Betrug zu erstellen.

T

Textur

Die Oberflächenqualität und feinen Details eines Objekts in einem Bild, wie Hautporen, Stoffgewebe, Papierkörnung oder einzelne Haarsträhnen. Das Modell sucht nach unnatürlicher Glätte oder plastisch aussehenden Oberflächen, da KI diese komplexen Details oft überhomogenisiert.

TTS (Text-to-Speech)

Technologie, die geschriebenen Text in synthetische Sprache umwandelt. Während Stimmklonen eine bestimmte Person nachahmt, erzeugt allgemeines TTS neue Stimmen von Grund auf. Beide können für synthetisches Audio verwendet werden. Die Erkennung sucht nach robotischer Kadenz, unnatürlichen Pausen oder Frequenzartefakten.

U

Umgehungstechniken

Methoden, die verwendet werden, um die Erkennung durch KI-Inhaltsdetektoren zu vermeiden oder zu reduzieren. Dazu können Bildkompression, Farbanpassung, Rauschzugabe oder adversariale Störungen gehören. Das Verständnis von Umgehung hilft, die Robustheit von Detektoren zu verbessern.

V

Vergrößerungsartefakte

Verzerrungen, die eingeführt werden, wenn eine KI versucht, die Auflösung eines unscharfen oder kleinen Bildes zu erhöhen. Das Modell sucht nach paradoxen Details, wie sehr scharfe Wimpern neben unscharfen Hautporen, was darauf hindeutet, dass die KI neue Details auf einem qualitativ minderwertigen Original halluziniert hat.

W

Wasserzeichen (Digital)

Unsichtbare Signale, die von verantwortungsvollen KI-Generatoren (wie Googles SynthID) in Mediendateien eingebettet werden, um sie als KI-erstellt zu kennzeichnen. TruthScan scannt nach diesen spezifischen, versteckten Anbietersignaturen, die bestätigen, dass ein Bild KI-generiert ist.

Wiedereinfang-Angriff

Eine Betrugstechnik, bei der ein Benutzer einen Deepfake oder ein statisches Foto auf einem Bildschirm anzeigt und dann eine zweite Kamera verwendet, um diesen Bildschirm zu filmen. Das Modell sucht nach Moiré-Mustern, Bildschirmblendung oder dem Pixelraster des Monitorgeräts.

X

XMP-Metadaten

Extensible Metadata Platform. Ein Standard, der von Bearbeitungssoftware (wie Adobe) verwendet wird, um Verlaufsprotokolle in einer Bilddatei zu speichern. Das Modell sucht nach Spuren der Bearbeitungshistorie, wie Protokolle, die 'Erstellt mit Stable Diffusion' sagen, auch wenn die Haupt-EXIF-Daten gelöscht wurden.

Y

Y-Kanal-Analyse

Analyse der Luminanz- (Helligkeits-) Schicht eines Bildes getrennt von seiner Farbe. KI bekommt die Farbe oft richtig, vermasselt aber die Beleuchtungsphysik. Durch Entfernen der Farbe und Betrachten nur des Graustufen-Y-Kanals werden diese Beleuchtungsinkonsistenzen viel offensichtlicher.

Z

Zeitliche Artefakte

Visuelle Inkonsistenzen, die im Laufe der Zeit auftreten, anstatt in einem einzelnen Rahmen. In KI-Videos können Elemente wie Hautton, Brille oder Hintergrundtexturen flackern, vibrieren oder sich von Rahmen zu Rahmen unnatürlich verschieben, während die KI versucht, die zeitliche Konsistenz aufrechtzuerhalten.

Zero-Shot-Erkennung

Die Fähigkeit eines Erkennungsmodells, eine Fälschung von einem neuen KI-Generator zu identifizieren, den es noch nie zuvor gesehen hat. Das Modell sucht nach universellen Fehlern—wie Verstöße gegen die Beleuchtungsphysik—die alle aktuellen KI-Modelle tendenziell machen, unabhängig davon, wer sie gebaut hat.