TruthScan: uitgebreide woordenlijst AI-detectie

Volledige naslag voor terminologie rond AI-detectie en digitale forensiek. Zoek of blader door alle termen om de technologie achter inhoudsauthenticiteit te begrijpen.

A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
R
S
T
U
X
Y
Z

A

Adversarial attack

Technieken om AI-detectiesystemen te misleiden door kleine, bewuste wijzigingen aan afbeeldingen of audio. Aanvallers voegen bijna onzichtbare storingen toe of passen transformaties toe om detectie te omzeilen. Robuuste detectiemodellen worden getraind om dergelijke omzeilingspogingen te weerstaan.

Akoestische vingerafdruk

De unieke, meetbare eigenschappen van een audiosignaal. Net als een menselijke vingerafdruk heeft een stem specifieke vormen in geluidsgolven. TruthScan analyseert deze om stemklonen te detecteren, bijvoorbeeld het ontbreken van natuurlijke ademhaling of de vlakheid die vaak bij synthetische spraak voorkomt.

Analyse knipperfrequentie

Een forensische techniek die meet hoe vaak en natuurlijk iemand knippert in een video. Mensen hebben een deels voorspelbaar biologisch knipperritme. Deepfakes, vooral oudere of laagwaardige, tonen vaak te weinig, te snel of geen knipperen.

Artefacten

Digitale vervormingen, pixelatie of visuele fouten in een afbeeldings- of videobestand. In AI-detectie zijn dit vaak generatieve artefacten — onlogische details zoals scheve texturen, vreemde vervaging of blokken met afwijkende resolutie die wijzen op synthese in plaats van opname met een camera.

B

Betrouwbaarheidsscore

Een percentage (0–100%) dat de zekerheid van het systeem weergeeft dat inhoud door AI is gegenereerd. Een hoge score (bijv. 99%) wijst op sterke aanwijzingen; een middelscore (bijv. 55%) op twijfel of onvoldoende data.

Bronattributie

Bepalen welk apparaat, programma of AI-model inhoud heeft geproduceerd via metadata, compressieafdrukken of model-specifieke artefacten. Bronattributie helpt authenticiteit en manipulatie te traceren.

C

Compressie-artefacten

Vervorming door comprimeren en decomprimeren van een afbeelding of video (bijv. JPEG, MPEG). Dit verschilt van generatieve artefacten — compressie veroorzaakt blokvorming, ringing of kleurbanden. Forensische analyse kan her-compressie of inconsistente compressie tussen regio's detecteren.

Copy-move-vervalsing

Een type beeldvervalsing waarbij een gebied van het ene deel van een afbeelding naar elders in dezelfde afbeelding wordt gekopieerd. Aanvallers gebruiken copy-move om objecten te verbergen, elementen te dupliceren of valse scènes te maken. Forensische tools vinden statistisch identieke pixelblokken.

D

Deepfake

Media waarin het uiterlijk van een persoon (gezicht of stem) met AI realistisch is vervangen of gemanipuleerd. In tegenstelling tot standaard AI-kunst zijn deepfakes gericht op het nabootsen van echte personen, vaak met dingen die ze nooit zeiden of deden.

Detectie-heatmap

Een visueel rapport dat een kleurverloop over de geanalyseerde afbeelding of videoframe legt. In plaats van alleen een label ‘nep’ markeert de heatmap de specifieke regio's waar manipulatie is gedetecteerd (bijv. een rood gezicht en een blauwe achtergrond).

Diffusiepatronen

Subtiele, ruisachtige texturen die specifiek zijn voor diffusiemodellen (generatieve AI zoals Midjourney, DALL-E of Stable Diffusion). Deze modellen genereren beelden door ruis te verfijnen en laten vaak een microscopisch rasterpatroon achter, onzichtbaar voor het oog maar detecteerbaar door forensische algoritmen.

Digital watermarking

Onzichtbare signalen die verantwoordelijke AI-generatoren (zoals Google's SynthID) in mediabestanden inbedden om ze als AI-gemaakt te labelen. TruthScan scant op deze leveranciershandtekeningen.

Digitale manipulatie

Elke wijziging van mediabestanden met software (zoals Photoshop) of AI. Eenvoudige correcties zijn gebruikelijk; forensische manipulatie omvat ingrijpende wijzigingen — objecten verwijderen, gezichten vervormen of valse elementen invoegen — die context of waarheid aantasten. Het model zoekt naar inconsistente belichting, schaduwen die niet bij de lichtbron passen of gekloonde patronen.

E

ELA (Error Level Analysis)

Een forensische techniek: een afbeelding opnieuw opslaan op een bekende kwaliteit en de compressiefout vergelijken. Bewerkte of door AI gegenereerde regio's vertonen vaak andere foutniveaus dan het origineel — toegevoegde of gewijzigde gebieden vallen op als lichter of donkerder.

Ensemblemodel

Een strategie waarbij meerdere verschillende AI-modellen dezelfde inhoud gelijktijdig analyseren. TruthScan gebruikt ensembles om fouten te minimaliseren; combineert u een model gespecialiseerd in Midjourney en een in Photoshop-bewerkingen, dan is de dekking en nauwkeurigheid groter.

EXIF-informatie

Een standaard voor metadata in afbeeldingsbestanden: een digitaal logboek met technische details zoals cameramerk/model, sluitertijd, brandpuntsafstand, datum en soms GPS. Het model zoekt naar inconsistenties, bijvoorbeeld een afbeelding die van een iPhone zou komen maar niet de verwachte software-tags heeft.

F

Face swap

Een specifiek type deepfake waarbij het gezicht van iemand wordt vervangen door dat van een ander in video of afbeeldingen. Detectie richt zich op randartefacten, belichtingsmismatch en onnatuurlijke gezichtsbewegingen.

False negatives

Een fout waarbij het systeem door AI gegenereerde of gemanipuleerde inhoud niet herkent en ten onrechte als echt/menselijk labelt. Komt voor bij zeer geavanceerde modellen of zwaar gecomprimeerde beelden die digitale sporen verbergen.

False positive

Een geval waarin authentieke, menselijke inhoud ten onrechte als door AI gegenereerd wordt gelabeld. Systemen minimaliseren dit, maar compressie, extreme filters of lage resolutie kunnen soms false positives veroorzaken.

G

GAN (Generative Adversarial Network)

Een AI-architectuur waarin twee neurale netwerken concurreren: een generator maakt valse inhoud en een discriminator probeert die te herkennen. Veel vroege deepfakes en synthetische beelden gebruikten GAN's. Detectiemodellen leren de kenmerkende artefacten van GAN-output herkennen.

Gezichtsmorfing

Een techniek die twee of meer gezichten mengt tot één vloeiende overgang. Gebruikt bij identiteitsfraude en synthetische persona's; gemorfde gezichten kunnen herkenningssystemen misleiden. Detectie zoekt naar inconsistente gezichtslandmerken of mengartefacten.

Ghosting / spookbeeld

Een visuele anomalie waarbij een object een vaag, halfdoorzichtig duplicaat of spoor naast zich lijkt te hebben. Vaak bij AI-generatie bij bewegende objecten of complexe geometrie, met een wazig dubbele-belichtingseffect.

H

Hallucinatie

Wanneer een AI-model plausibele details genereert die feitelijk fout, inconsistent of onzinnig zijn. In afbeeldingen: extra vingers, onmogelijke objecten of incoherente achtergronden. Detectie kan semantische of structurele onmogelijkheden signaleren.

Hashing

Een digitale methode om een unieke vingerafdruk van een bestand te maken. Verandert zelfs één pixel, dan verandert de hash volledig. TruthScan gebruikt hashing om bestanden te vergelijken met een database van bekende deepfakes of bevestigde originelen.

Herkomst van inhoud (content provenance)

Informatie over oorsprong en bewerkingsgeschiedenis van media. Standaarden zoals C2PA (Coalition for Content Provenance and Authenticity) en CAI (Content Authenticity Initiative) maken cryptografische ondertekening mogelijk zodat kijkers kunnen verifiëren hoe inhoud is gemaakt en gewijzigd.

I

Inpainting

Het proces waarbij AI alleen een deel van een bestaande afbeelding genereert of vervangt terwijl de omgeving behouden blijft. Detectietools zoeken naar naden of statistische inconsistenties waar de gegenereerde patch de originele foto raakt.

J

JPEG-spoken

Zwevende, bijna onzichtbare contouren wanneer een afbeelding meerdere keren met verschillende kwaliteit is opgeslagen. Het model vindt mismatchte compressiesignaturen om ingevoegde of gemanipuleerde gebieden te lokaliseren.

K

Keten van bewaring

Een gedocumenteerd proces dat bijhoudt wie digitaal bewijs heeft behandeld en wanneer, zodat de integriteit van acquisitie tot analyse behouden blijft. Bij forensisch onderzoek is een betrouwbare keten van bewaring cruciaal om te bewijzen dat mediabestanden niet zijn gewijzigd.

Keyframe

Een volledig, zelfstandig beeld in een videobestand. De meeste frames slaan alleen veranderingen t.o.v. het vorige moment op, maar keyframes leggen het volledige beeld vast. We analyseren keyframes op hogeresolutie-artefacten die in andere frames vervaagd kunnen zijn.

Kloondetectie

Een forensische techniek die gebieden in een afbeelding identificeert die elders uit dezelfde afbeelding zijn gekopieerd. Algoritmen vergelijken pixelblokken en zoeken naar statistisch identieke of bijna identieke gebieden — een teken dat een regio is gekloond om inhoud te verbergen of te wijzigen.

Kwantisatietabellen

Het specifieke wiskundige recept dat een camera of software gebruikt om te comprimeren. Claimt een afbeelding van een Nikon te zijn maar gebruikt de kwantisatietabel van Photoshop, dan wijst dat op nabewerking of generatie na opname.

L

Lip-sync drift

Een temporeel artefact waarbij mond beweging niet perfect synchroon loopt met audio. Zelfs milliseconden mismatch wijzen vaak op een deepfake waarbij audio een gegenereerd gezicht aanstuurt.

Liveness-detectie

Een beveiligingsproces om te verifiëren dat een echte, levende persoon achter de camera zit. Het model zoekt microbewegingen zoals hartslag-geïnduceerde huidflush en natuurlijk knipperen die AI-generatoren vaak niet repliceert.

M

Metadata

Verborgen gegevens over gegevens in een digitaal bestand: cameramodel, opnamedatum, GPS, enz. AI-generatoren strippen deze data vaak of voegen eigen tags toe. Forensische analyse onderzoekt of metadata overeenkomt met het vermeende bronapparaat.

Model fingerprinting

Het identificeren van welk AI-model of welke generator inhoud heeft geproduceerd. Verschillende modellen laten statistische of structurele handtekeningen na. Forensische tools kunnen synthetische inhoud soms toeschrijven aan leveranciers zoals Midjourney, DALL-E of Stable Diffusion.

N

Neural rendering

AI-gestuurde technieken om beeld en video te synthetiseren of te manipuleren met geleerde representaties, waaronder NeRF en neurale textuursynthese. Detectie zoekt naar kenmerkende artefacten van deze methoden.

O

Omzeilingstechnieken

Methoden om AI-detectie te vermijden of te verlagen, zoals compressie, kleurcorrectie, ruis toevoegen of adversarial perturbaties. Inzicht in omzeiling helpt de robuustheid van detectors te verbeteren.

Outpainting

Het AI-proces om een afbeelding voorbij de oorspronkelijke randen uit te breiden met nieuwe inhoud. In tegenstelling tot inpainting vult outpainting de rand toe. Detectie zoekt naar naden waar gegenereerde extensies het originele kader raken.

Over-smoothing

Een visueel kenmerk waarbij texturen (huid, stof) natuurlijke detail missen en plastisch of wasachtig ogen. AI-modellen middelen vaak complexe details weg die ze niet begrijpen.

P

Pixelniveau-inconsistenties

Onregelmatigheden tussen aangrenzende pixels die voor het oog vaak onzichtbaar zijn. Camera's produceren een natuurlijk ruispatroon; AI rangschikt pixels vaak met een andere wiskundige precisie dan optische opname.

R

Recapture-aanval

Een fraudetechniek waarbij iemand een deepfake of statische foto op een scherm toont en met een tweede camera filmt. Het model zoekt naar moiré, schermglans of het pixelraster van de monitor.

Ruis (noise)

De korrelige textuur in digitale foto's, vergelijkbaar met ruis op een tv. Bij echte foto's ontstaat ruis door de lichtgevoeligheid van de sensor volgens een natuurlijk patroon. Het model zoekt naar te schone plekken in een rumoerige afbeelding of repetitieve rasterpatronen typisch voor AI.

S

Speculaire highlights

Reflecties van lichtbronnen op glanzende oppervlakken, vooral oogreflecties. In een echte foto passen vorm en positie bij de omgeving. AI rendert deze vaak fout met onmogelijke geometrie.

Splicing

Beeldvervalsing waarbij regio's uit verschillende bronafbeeldingen in één composiet worden gecombineerd. Detectie zoekt naar inconsistente belichting, perspectief of textuur tussen delen.

Stemafdruk (voiceprint)

Een biometrische identificatie afgeleid van unieke stemkenmerken — vergelijkbaar met een akoestische vingerafdruk. Stemafdrukken kunnen authenticatie of detectie van imitatie ondersteunen.

Stemklonen (voice cloning)

AI die een synthetische stem genereert die toon, accent en ritme van een specifiek persoon nabootst. Het model zoekt robotachtige artefacten in ademhaling of frequentiegaten die menselijke stembanden niet maken.

Style transfer

Een AI-techniek die de visuele stijl van het ene beeld (bijv. een schilderij) op het andere toepast. Kan manipulatie verhullen. Detectie kan onnatuurlijke stijlgrenzen of statistische sporen van style-transfermodellen vinden.

Synthetisch persona

Een fotorealistische digitale identiteit — gezicht en profiel — volledig door AI gecreëerd. In tegenstelling tot een deepfake van een echt persoon bestaat een synthetisch persona niet in het echt. Vaak gebruikt voor bots of fraude.

T

Tampering

Opzettelijke wijziging van digitale media om kijkers te misleiden. Ruimer dan digitale manipulatie: elke wijziging die de werkelijkheid verkeerd weergeeft — van splicing tot metadata-aanpassing.

Temporele artefacten

Visuele inconsistenties in de tijd in plaats van in één frame. In AI-video kunnen huidtint, bril of achtergrond flikkeren of trillen doordat het model temporele consistentie moeilijk vasthoudt.

Textuur

Oppervlaktekwaliteit en fijne details van objecten: huidporiën, weefsels, papiernerf, haren. Het model zoekt naar onnatuurlijke gladheid of plastic oppervlakken doordat AI complexe details homogeniseert.

TTS (text-to-speech)

Technologie die geschreven tekst omzet in synthetische spraak. Stemklonen bootst een specifiek persoon na; algemene TTS creëert nieuwe stemmen. Beide kunnen synthetische audio opleveren. Detectie zoekt naar robotachtige cadans, onnatuurlijke pauzes of frequentie-artefacten.

U

Upscaling-artefacten

Vervorming wanneer AI de resolutie van een wazig of klein beeld verhoogt. Het model zoekt paradoxale details, zoals scherpe wimpers naast wazige huidporiën — een teken dat details zijn gehallucineerd.

X

XMP-metadata

Extensible Metadata Platform: een standaard van bewerkingssoftware (zoals Adobe) om geschiedenislogs in afbeeldingen op te slaan. Het model zoekt sporen zoals 'gemaakt met Stable Diffusion' zelfs als hoofd-EXIF is gewist.

Y

Y-kanaalanalyse

Analyse van de luminantie (helderheid) los van kleur. AI krijgt kleur vaak goed maar maakt fouten in lichtfysica. Door kleur te strippen en alleen grayscale Y te bekijken, worden lichtinconsistenties duidelijker.

Z

Zero-shot-detectie

Het vermogen van een detectiemodel om vervalsingen van een nieuwe AI-generator te herkennen die het nog niet heeft gezien. Het model zoekt universele fouten — zoals schendingen van lichtfysica — die huidige modellen gemeen hebben.