TruthScan: uitgebreide woordenlijst AI-detectie
Volledige naslag voor terminologie rond AI-detectie en digitale forensiek. Zoek of blader door alle termen om de technologie achter inhoudsauthenticiteit te begrijpen.
A
Adversarial attack
Technieken om AI-detectiesystemen te misleiden door kleine, bewuste wijzigingen aan afbeeldingen of audio. Aanvallers voegen bijna onzichtbare storingen toe of passen transformaties toe om detectie te omzeilen. Robuuste detectiemodellen worden getraind om dergelijke omzeilingspogingen te weerstaan.
Akoestische vingerafdruk
De unieke, meetbare eigenschappen van een audiosignaal. Net als een menselijke vingerafdruk heeft een stem specifieke vormen in geluidsgolven. TruthScan analyseert deze om stemklonen te detecteren, bijvoorbeeld het ontbreken van natuurlijke ademhaling of de vlakheid die vaak bij synthetische spraak voorkomt.
Analyse knipperfrequentie
Een forensische techniek die meet hoe vaak en natuurlijk iemand knippert in een video. Mensen hebben een deels voorspelbaar biologisch knipperritme. Deepfakes, vooral oudere of laagwaardige, tonen vaak te weinig, te snel of geen knipperen.
Artefacten
Digitale vervormingen, pixelatie of visuele fouten in een afbeeldings- of videobestand. In AI-detectie zijn dit vaak generatieve artefacten — onlogische details zoals scheve texturen, vreemde vervaging of blokken met afwijkende resolutie die wijzen op synthese in plaats van opname met een camera.
B
Betrouwbaarheidsscore
Een percentage (0–100%) dat de zekerheid van het systeem weergeeft dat inhoud door AI is gegenereerd. Een hoge score (bijv. 99%) wijst op sterke aanwijzingen; een middelscore (bijv. 55%) op twijfel of onvoldoende data.
Bronattributie
Bepalen welk apparaat, programma of AI-model inhoud heeft geproduceerd via metadata, compressieafdrukken of model-specifieke artefacten. Bronattributie helpt authenticiteit en manipulatie te traceren.
C
Compressie-artefacten
Vervorming door comprimeren en decomprimeren van een afbeelding of video (bijv. JPEG, MPEG). Dit verschilt van generatieve artefacten — compressie veroorzaakt blokvorming, ringing of kleurbanden. Forensische analyse kan her-compressie of inconsistente compressie tussen regio's detecteren.
Copy-move-vervalsing
Een type beeldvervalsing waarbij een gebied van het ene deel van een afbeelding naar elders in dezelfde afbeelding wordt gekopieerd. Aanvallers gebruiken copy-move om objecten te verbergen, elementen te dupliceren of valse scènes te maken. Forensische tools vinden statistisch identieke pixelblokken.
D
Deepfake
Media waarin het uiterlijk van een persoon (gezicht of stem) met AI realistisch is vervangen of gemanipuleerd. In tegenstelling tot standaard AI-kunst zijn deepfakes gericht op het nabootsen van echte personen, vaak met dingen die ze nooit zeiden of deden.
Detectie-heatmap
Een visueel rapport dat een kleurverloop over de geanalyseerde afbeelding of videoframe legt. In plaats van alleen een label ‘nep’ markeert de heatmap de specifieke regio's waar manipulatie is gedetecteerd (bijv. een rood gezicht en een blauwe achtergrond).
Diffusiepatronen
Subtiele, ruisachtige texturen die specifiek zijn voor diffusiemodellen (generatieve AI zoals Midjourney, DALL-E of Stable Diffusion). Deze modellen genereren beelden door ruis te verfijnen en laten vaak een microscopisch rasterpatroon achter, onzichtbaar voor het oog maar detecteerbaar door forensische algoritmen.
Digital watermarking
Onzichtbare signalen die verantwoordelijke AI-generatoren (zoals Google's SynthID) in mediabestanden inbedden om ze als AI-gemaakt te labelen. TruthScan scant op deze leveranciershandtekeningen.
Digitale manipulatie
Elke wijziging van mediabestanden met software (zoals Photoshop) of AI. Eenvoudige correcties zijn gebruikelijk; forensische manipulatie omvat ingrijpende wijzigingen — objecten verwijderen, gezichten vervormen of valse elementen invoegen — die context of waarheid aantasten. Het model zoekt naar inconsistente belichting, schaduwen die niet bij de lichtbron passen of gekloonde patronen.
E
ELA (Error Level Analysis)
Een forensische techniek: een afbeelding opnieuw opslaan op een bekende kwaliteit en de compressiefout vergelijken. Bewerkte of door AI gegenereerde regio's vertonen vaak andere foutniveaus dan het origineel — toegevoegde of gewijzigde gebieden vallen op als lichter of donkerder.
Ensemblemodel
Een strategie waarbij meerdere verschillende AI-modellen dezelfde inhoud gelijktijdig analyseren. TruthScan gebruikt ensembles om fouten te minimaliseren; combineert u een model gespecialiseerd in Midjourney en een in Photoshop-bewerkingen, dan is de dekking en nauwkeurigheid groter.
EXIF-informatie
Een standaard voor metadata in afbeeldingsbestanden: een digitaal logboek met technische details zoals cameramerk/model, sluitertijd, brandpuntsafstand, datum en soms GPS. Het model zoekt naar inconsistenties, bijvoorbeeld een afbeelding die van een iPhone zou komen maar niet de verwachte software-tags heeft.
F
Face swap
Een specifiek type deepfake waarbij het gezicht van iemand wordt vervangen door dat van een ander in video of afbeeldingen. Detectie richt zich op randartefacten, belichtingsmismatch en onnatuurlijke gezichtsbewegingen.
False negatives
Een fout waarbij het systeem door AI gegenereerde of gemanipuleerde inhoud niet herkent en ten onrechte als echt/menselijk labelt. Komt voor bij zeer geavanceerde modellen of zwaar gecomprimeerde beelden die digitale sporen verbergen.
False positive
Een geval waarin authentieke, menselijke inhoud ten onrechte als door AI gegenereerd wordt gelabeld. Systemen minimaliseren dit, maar compressie, extreme filters of lage resolutie kunnen soms false positives veroorzaken.
G
GAN (Generative Adversarial Network)
Een AI-architectuur waarin twee neurale netwerken concurreren: een generator maakt valse inhoud en een discriminator probeert die te herkennen. Veel vroege deepfakes en synthetische beelden gebruikten GAN's. Detectiemodellen leren de kenmerkende artefacten van GAN-output herkennen.
Gezichtsmorfing
Een techniek die twee of meer gezichten mengt tot één vloeiende overgang. Gebruikt bij identiteitsfraude en synthetische persona's; gemorfde gezichten kunnen herkenningssystemen misleiden. Detectie zoekt naar inconsistente gezichtslandmerken of mengartefacten.
Ghosting / spookbeeld
Een visuele anomalie waarbij een object een vaag, halfdoorzichtig duplicaat of spoor naast zich lijkt te hebben. Vaak bij AI-generatie bij bewegende objecten of complexe geometrie, met een wazig dubbele-belichtingseffect.
H
Hallucinatie
Wanneer een AI-model plausibele details genereert die feitelijk fout, inconsistent of onzinnig zijn. In afbeeldingen: extra vingers, onmogelijke objecten of incoherente achtergronden. Detectie kan semantische of structurele onmogelijkheden signaleren.
Hashing
Een digitale methode om een unieke vingerafdruk van een bestand te maken. Verandert zelfs één pixel, dan verandert de hash volledig. TruthScan gebruikt hashing om bestanden te vergelijken met een database van bekende deepfakes of bevestigde originelen.
Herkomst van inhoud (content provenance)
Informatie over oorsprong en bewerkingsgeschiedenis van media. Standaarden zoals C2PA (Coalition for Content Provenance and Authenticity) en CAI (Content Authenticity Initiative) maken cryptografische ondertekening mogelijk zodat kijkers kunnen verifiëren hoe inhoud is gemaakt en gewijzigd.
I
Inpainting
Het proces waarbij AI alleen een deel van een bestaande afbeelding genereert of vervangt terwijl de omgeving behouden blijft. Detectietools zoeken naar naden of statistische inconsistenties waar de gegenereerde patch de originele foto raakt.
J
JPEG-spoken
Zwevende, bijna onzichtbare contouren wanneer een afbeelding meerdere keren met verschillende kwaliteit is opgeslagen. Het model vindt mismatchte compressiesignaturen om ingevoegde of gemanipuleerde gebieden te lokaliseren.
K
Keten van bewaring
Een gedocumenteerd proces dat bijhoudt wie digitaal bewijs heeft behandeld en wanneer, zodat de integriteit van acquisitie tot analyse behouden blijft. Bij forensisch onderzoek is een betrouwbare keten van bewaring cruciaal om te bewijzen dat mediabestanden niet zijn gewijzigd.
Keyframe
Een volledig, zelfstandig beeld in een videobestand. De meeste frames slaan alleen veranderingen t.o.v. het vorige moment op, maar keyframes leggen het volledige beeld vast. We analyseren keyframes op hogeresolutie-artefacten die in andere frames vervaagd kunnen zijn.
Kloondetectie
Een forensische techniek die gebieden in een afbeelding identificeert die elders uit dezelfde afbeelding zijn gekopieerd. Algoritmen vergelijken pixelblokken en zoeken naar statistisch identieke of bijna identieke gebieden — een teken dat een regio is gekloond om inhoud te verbergen of te wijzigen.
Kwantisatietabellen
Het specifieke wiskundige recept dat een camera of software gebruikt om te comprimeren. Claimt een afbeelding van een Nikon te zijn maar gebruikt de kwantisatietabel van Photoshop, dan wijst dat op nabewerking of generatie na opname.
L
Lip-sync drift
Een temporeel artefact waarbij mond beweging niet perfect synchroon loopt met audio. Zelfs milliseconden mismatch wijzen vaak op een deepfake waarbij audio een gegenereerd gezicht aanstuurt.
Liveness-detectie
Een beveiligingsproces om te verifiëren dat een echte, levende persoon achter de camera zit. Het model zoekt microbewegingen zoals hartslag-geïnduceerde huidflush en natuurlijk knipperen die AI-generatoren vaak niet repliceert.
M
Metadata
Verborgen gegevens over gegevens in een digitaal bestand: cameramodel, opnamedatum, GPS, enz. AI-generatoren strippen deze data vaak of voegen eigen tags toe. Forensische analyse onderzoekt of metadata overeenkomt met het vermeende bronapparaat.
Model fingerprinting
Het identificeren van welk AI-model of welke generator inhoud heeft geproduceerd. Verschillende modellen laten statistische of structurele handtekeningen na. Forensische tools kunnen synthetische inhoud soms toeschrijven aan leveranciers zoals Midjourney, DALL-E of Stable Diffusion.
N
Neural rendering
AI-gestuurde technieken om beeld en video te synthetiseren of te manipuleren met geleerde representaties, waaronder NeRF en neurale textuursynthese. Detectie zoekt naar kenmerkende artefacten van deze methoden.
O
Omzeilingstechnieken
Methoden om AI-detectie te vermijden of te verlagen, zoals compressie, kleurcorrectie, ruis toevoegen of adversarial perturbaties. Inzicht in omzeiling helpt de robuustheid van detectors te verbeteren.
Outpainting
Het AI-proces om een afbeelding voorbij de oorspronkelijke randen uit te breiden met nieuwe inhoud. In tegenstelling tot inpainting vult outpainting de rand toe. Detectie zoekt naar naden waar gegenereerde extensies het originele kader raken.
Over-smoothing
Een visueel kenmerk waarbij texturen (huid, stof) natuurlijke detail missen en plastisch of wasachtig ogen. AI-modellen middelen vaak complexe details weg die ze niet begrijpen.
P
Pixelniveau-inconsistenties
Onregelmatigheden tussen aangrenzende pixels die voor het oog vaak onzichtbaar zijn. Camera's produceren een natuurlijk ruispatroon; AI rangschikt pixels vaak met een andere wiskundige precisie dan optische opname.
R
Recapture-aanval
Een fraudetechniek waarbij iemand een deepfake of statische foto op een scherm toont en met een tweede camera filmt. Het model zoekt naar moiré, schermglans of het pixelraster van de monitor.
Ruis (noise)
De korrelige textuur in digitale foto's, vergelijkbaar met ruis op een tv. Bij echte foto's ontstaat ruis door de lichtgevoeligheid van de sensor volgens een natuurlijk patroon. Het model zoekt naar te schone plekken in een rumoerige afbeelding of repetitieve rasterpatronen typisch voor AI.
S
Speculaire highlights
Reflecties van lichtbronnen op glanzende oppervlakken, vooral oogreflecties. In een echte foto passen vorm en positie bij de omgeving. AI rendert deze vaak fout met onmogelijke geometrie.
Splicing
Beeldvervalsing waarbij regio's uit verschillende bronafbeeldingen in één composiet worden gecombineerd. Detectie zoekt naar inconsistente belichting, perspectief of textuur tussen delen.
Stemafdruk (voiceprint)
Een biometrische identificatie afgeleid van unieke stemkenmerken — vergelijkbaar met een akoestische vingerafdruk. Stemafdrukken kunnen authenticatie of detectie van imitatie ondersteunen.
Stemklonen (voice cloning)
AI die een synthetische stem genereert die toon, accent en ritme van een specifiek persoon nabootst. Het model zoekt robotachtige artefacten in ademhaling of frequentiegaten die menselijke stembanden niet maken.
Style transfer
Een AI-techniek die de visuele stijl van het ene beeld (bijv. een schilderij) op het andere toepast. Kan manipulatie verhullen. Detectie kan onnatuurlijke stijlgrenzen of statistische sporen van style-transfermodellen vinden.
Synthetisch persona
Een fotorealistische digitale identiteit — gezicht en profiel — volledig door AI gecreëerd. In tegenstelling tot een deepfake van een echt persoon bestaat een synthetisch persona niet in het echt. Vaak gebruikt voor bots of fraude.
T
Tampering
Opzettelijke wijziging van digitale media om kijkers te misleiden. Ruimer dan digitale manipulatie: elke wijziging die de werkelijkheid verkeerd weergeeft — van splicing tot metadata-aanpassing.
Temporele artefacten
Visuele inconsistenties in de tijd in plaats van in één frame. In AI-video kunnen huidtint, bril of achtergrond flikkeren of trillen doordat het model temporele consistentie moeilijk vasthoudt.
Textuur
Oppervlaktekwaliteit en fijne details van objecten: huidporiën, weefsels, papiernerf, haren. Het model zoekt naar onnatuurlijke gladheid of plastic oppervlakken doordat AI complexe details homogeniseert.
TTS (text-to-speech)
Technologie die geschreven tekst omzet in synthetische spraak. Stemklonen bootst een specifiek persoon na; algemene TTS creëert nieuwe stemmen. Beide kunnen synthetische audio opleveren. Detectie zoekt naar robotachtige cadans, onnatuurlijke pauzes of frequentie-artefacten.
U
Upscaling-artefacten
Vervorming wanneer AI de resolutie van een wazig of klein beeld verhoogt. Het model zoekt paradoxale details, zoals scherpe wimpers naast wazige huidporiën — een teken dat details zijn gehallucineerd.
X
XMP-metadata
Extensible Metadata Platform: een standaard van bewerkingssoftware (zoals Adobe) om geschiedenislogs in afbeeldingen op te slaan. Het model zoekt sporen zoals 'gemaakt met Stable Diffusion' zelfs als hoofd-EXIF is gewist.
Y
Y-kanaalanalyse
Analyse van de luminantie (helderheid) los van kleur. AI krijgt kleur vaak goed maar maakt fouten in lichtfysica. Door kleur te strippen en alleen grayscale Y te bekijken, worden lichtinconsistenties duidelijker.
Z
Zero-shot-detectie
Het vermogen van een detectiemodel om vervalsingen van een nieuwe AI-generator te herkennen die het nog niet heeft gezien. Het model zoekt universele fouten — zoals schendingen van lichtfysica — die huidige modellen gemeen hebben.