Glossario Completo di Rilevamento AI TruthScan
Una guida di riferimento completa alla terminologia di rilevamento AI e forensica digitale. Cerca o sfoglia tutti i termini per comprendere la tecnologia dietro l'autenticità dei contenuti.
A
Allucinazione
Quando un modello AI genera dettagli dall'aspetto plausibile che sono fattualmente errati, incoerenti o privi di senso. Nelle immagini, questo può manifestarsi come dita extra, oggetti impossibili o sfondi logicamente incoerenti. Il rilevamento può identificare queste impossibilità semantiche o strutturali.
Analisi Canale Y
Analizzare lo strato di Luminanza (luminosità) di un'immagine separatamente dal suo colore. L'AI spesso ottiene il colore giusto ma sbaglia la fisica dell'illuminazione. Rimuovendo il colore e guardando solo il Canale Y in scala di grigi, queste incoerenze di illuminazione diventano molto più ovvie.
Analisi Frequenza Battito Palpebre
Una tecnica forense che monitora quanto frequentemente e naturalmente un soggetto batte le palpebre in un video. Gli umani hanno un ritmo biologico di battito delle palpebre semi-prevedibile. I deepfake, in particolare quelli più vecchi o di qualità inferiore, spesso mostrano soggetti che battono le palpebre troppo raramente, troppo velocemente o per niente.
Artefatti
Distorsioni digitali, pixelazione o errori visivi che appaiono in un file immagine o video. Nel contesto del rilevamento AI, questi sono spesso artefatti generativi—dettagli illogici come texture distorte, sfocature strane o blocchi di risoluzione non corrispondenti che indicano che l'immagine è stata sintetizzata piuttosto che catturata da un obiettivo fotografico.
Artefatti di Compressione
Distorsioni introdotte quando un'immagine o video viene compresso e decompresso (es. JPEG, MPEG). Questi differiscono dagli artefatti generativi—la compressione causa blocchi, ringing o bande di colore. L'analisi forense può rilevare ricompressione o compressione incoerente tra le regioni.
Artefatti di Upscaling
Distorsioni introdotte quando un'AI tenta di aumentare la risoluzione di un'immagine sfocata o piccola. Il modello cerca dettagli paradossali, come ciglia molto nitide accanto a pori della pelle sfocati, suggerendo che l'AI ha allucinato nuovi dettagli su un originale di bassa qualità.
Artefatti Temporali
Incoerenze visive che appaiono nel tempo piuttosto che in un singolo frame. Nei video AI, elementi come tono della pelle, occhiali o texture di sfondo possono sfarfallare, vibrare o spostarsi innaturalmente da frame a frame mentre l'AI lotta per mantenere la coerenza temporale.
Attacco Avversariale
Tecniche progettate per ingannare i sistemi di rilevamento AI apportando piccole modifiche deliberate a immagini o audio. Gli attaccanti possono aggiungere perturbazioni impercettibili o applicare trasformazioni per eludere i rilevatori. I modelli di rilevamento robusti sono addestrati per resistere a tali tentativi di evasione.
Attacco di Ricattura (Recapture Attack)
Una tecnica di frode in cui un utente mostra un deepfake o una foto statica su uno schermo e poi usa una seconda fotocamera per filmare quello schermo. Il modello cerca pattern moiré, riflessi dello schermo o la griglia di pixel del dispositivo monitor.
Attribuzione Fonte
Determinare quale dispositivo, software o modello AI ha prodotto un contenuto. Questo può coinvolgere l'analisi di metadata, impronte digitali di compressione o artefatti specifici del modello. L'attribuzione della fonte aiuta a verificare l'autenticità e tracciare la manipolazione.
C
Catena di Custodia
Un processo documentato che traccia chi ha gestito le prove digitali e quando, garantendo la loro integrità dalla cattura all'analisi. Nelle indagini forensi, mantenere la catena di custodia è fondamentale per dimostrare che i file media non sono stati alterati tra acquisizione e rilevamento.
Clonazione Vocale
L'uso dell'AI per generare una voce sintetica che imita il tono, l'accento e la cadenza di una persona specifica. Il modello cerca artefatti robotici nei pattern di respirazione o lacune di frequenza che le corde vocali umane non possono produrre.
D
Deepfake
Media in cui le sembianze di una persona (volto o voce) sono state realisticamente scambiate o manipolate usando intelligenza artificiale. A differenza dell'arte AI standard, i deepfake sono specificamente progettati per imitare individui reali, spesso facendoli dire o fare cose che non hanno mai fatto.
Deriva Lip-Sync
Un artefatto temporale nei video in cui il movimento della bocca non si allinea perfettamente con la traccia audio. Anche una discrepanza di pochi millisecondi può essere un forte indicatore di un deepfake, dove una traccia audio sta guidando un volto generato da computer.
E
Eccessiva Levigatura (Over-smoothing)
Una caratteristica visiva in cui le texture (come pelle o tessuto) mancano di dettagli naturali e appaiono di plastica o cerose. I modelli AI spesso fanno una media di dettagli complessi che non comprendono, risultando in pelle che sembra essere stata pesantemente ritoccata.
ELA (Error Level Analysis)
Una tecnica forense che salva nuovamente un'immagine a un livello di qualità noto e confronta la compressione risultante. Le regioni modificate o generate da AI spesso mostrano livelli di errore diversi rispetto all'originale—le aree che sono state aggiunte o alterate si evidenziano come più chiare o più scure nell'analisi.
F
Falsi Negativi
Un errore in cui il sistema di rilevamento non riesce a identificare un'immagine generata o manipolata da AI, etichettandola erroneamente come Reale o Umana. Questo tipicamente accade con modelli AI next-gen altamente sofisticati o immagini che sono state pesantemente compresse per nascondere le loro impronte digitali digitali.
Falsificazione Copy-Move
Un tipo di falsificazione di immagini in cui una regione viene copiata da una parte di un'immagine e incollata altrove nella stessa immagine. Gli attaccanti usano copy-move per nascondere oggetti, duplicare elementi o creare scene false. Gli strumenti forensi lo rilevano trovando blocchi di pixel statisticamente identici.
Falso Positivo
Un'istanza in cui il sistema di rilevamento identifica erroneamente contenuti autentici e creati da umani come generati da AI. Mentre i sistemi sono progettati per minimizzare questo, i falsi positivi possono occasionalmente essere innescati da compressione pesante, filtraggio estremo o file a bassa risoluzione.
Fantasmi JPEG
Contorni deboli e invisibili che appaiono quando un'immagine è stata salvata più volte a diversi livelli di qualità. Il modello rileva queste firme di compressione non corrispondenti per trovare oggetti inseriti o aree manipolate.
Filigrana (Watermarking Digitale)
Segnali invisibili incorporati in file media da generatori AI responsabili (come SynthID di Google) per etichettarli come creati da AI. TruthScan scansiona queste firme nascoste specifiche del fornitore che confermano che un'immagine è generata da AI.
Fingerprinting Modello
Il processo di identificazione di quale modello AI o generatore ha creato un contenuto. Modelli diversi lasciano firme statistiche o strutturali distinte. Gli strumenti forensi possono talvolta attribuire contenuti sintetici a fornitori specifici come Midjourney, DALL-E o Stable Diffusion.
G
GAN (Generative Adversarial Network)
Un'architettura AI in cui due reti neurali competono: un generatore crea contenuti falsi e un discriminatore cerca di rilevarli. Molti deepfake e immagini sintetiche iniziali usavano GAN. I modelli di rilevamento sono addestrati a riconoscere gli artefatti distintivi che le GAN tendono a produrre.
Ghosting / Immagine Ghosted
Un'anomalia visiva in cui un oggetto sembra avere una copia debole e traslucida o scia visibile nelle vicinanze. Questo è un fallimento comune nella generazione AI quando il modello tenta di rendere oggetti in movimento o geometrie complesse, risultando in un effetto sfocato di doppia esposizione.
H
Hashing
Un metodo digitale per creare un'impronta digitale unica per un file. Se anche un singolo pixel in un'immagine viene cambiato, il suo valore hash cambia completamente. TruthScan usa l'hashing per verificare se un file corrisponde a un database di deepfake conosciuti o originali distinti confermati.
Highlights Speculari
Il riflesso delle fonti di luce visibile su superfici lucide, in particolare il riflesso negli occhi di un soggetto. In una foto reale, la forma e la posizione di questi riflessi corrispondono all'ambiente (es. una finestra quadrata). L'AI spesso rende questi in modo errato, creando riflessi non corrispondenti o geometricamente impossibili.
I
Impronta Acustica
Le caratteristiche uniche e misurabili di un segnale audio. Proprio come un'impronta digitale umana è unica, una voce ha forme specifiche nelle sue onde sonore. TruthScan analizza queste per rilevare la clonazione vocale, cercando la mancanza di suoni di respiro naturali o la piattezza spesso trovata nei discorsi sintetici.
Impronta Vocale (Voiceprint)
Un identificatore biometrico derivato dalle caratteristiche uniche della voce di una persona—simile a un'impronta digitale acustica. Le impronte vocali possono essere usate per autenticazione o per rilevare quando discorsi sintetici stanno impersonando una voce conosciuta.
Incoerenze a Livello di Pixel
Irregolarità nella relazione tra pixel adiacenti che sono generalmente invisibili a occhio nudo. Le fotocamere creano immagini con un pattern di rumore specifico e naturale; i generatori AI spesso organizzano i pixel con una precisione matematica o impronta digitale statistica che differisce dalla cattura ottica naturale.
Informazioni EXIF
Uno standard specifico per archiviare metadata in file immagine. Funziona come un registro digitale, registrando dettagli tecnici come marca/modello fotocamera, velocità otturatore, lunghezza focale, data e a volte coordinate GPS. Il modello cerca discrepanze, come un'immagine che afferma di provenire da un iPhone ma manca dei tag software specifici che un iPhone aggiunge sempre.
Inpainting
Il processo di usare l'AI per generare o sostituire solo una parte specifica di un'immagine esistente preservando l'area circostante. Gli strumenti di rilevamento cercano le cuciture o le incoerenze statistiche in cui la patch generata da AI incontra la fotografia originale e organica.
K
Keyframe
Un'immagine autonoma completa all'interno di un file video. La maggior parte dei frame video registra solo le modifiche dal momento precedente per risparmiare spazio, ma i keyframe catturano l'immagine completa. Analizziamo i keyframe per artefatti a risoluzione più alta che potrebbero essere sfocati nel resto del video.
M
Manipolazione Digitale
Qualsiasi alterazione di un file media usando strumenti software (come Photoshop) o algoritmi AI. Mentre semplici modifiche come regolazioni di luminosità sono comuni, la manipolazione forense coinvolge cambiamenti sostanziali—come rimuovere oggetti, distorcere caratteristiche facciali o inserire elementi falsi—che alterano il contesto o la veridicità dell'immagine. Il modello cerca incongruenze nell'illuminazione, ombre che non corrispondono alla fonte di luce o pattern clonati.
Manomissione (Tampering)
L'alterazione intenzionale di media digitali per ingannare gli spettatori. Più ampia della manipolazione digitale, la manomissione comprende qualsiasi cambiamento meanto a rappresentare erroneamente la realtà—dall'unione di immagini all'alterazione di metadata. I sistemi di rilevamento sono progettati per identificare segni di manomissione.
Mappa Termica di Rilevamento
Uno strumento di reporting visivo che sovrappone un gradiente di colore all'immagine o al frame video analizzato. Invece di una semplice etichetta Falso, la mappa termica evidenzia le regioni specifiche in cui è stata rilevata manipolazione (es. colorando un volto di rosso per indicare un deepfake mentre lascia lo sfondo blu).
Metadata
Dati nascosti sui dati incorporati all'interno di un file digitale, contenenti dettagli come modello fotocamera, data di cattura e posizione GPS. I generatori AI spesso rimuovono questi dati o inseriscono i propri tag. L'analisi forense esamina la struttura di questi metadata per verificare se corrispondono al dispositivo di origine presunto.
Metadata XMP
Extensible Metadata Platform. Uno standard usato da software di modifica (come Adobe) per archiviare registri di cronologia all'interno di un file immagine. Il modello cerca tracce di cronologia di modifica, come registri che dicono 'Creato con Stable Diffusion' anche se i dati EXIF principali sono stati cancellati.
Modello Ensemble
Una strategia di rilevamento che usa più modelli AI diversi per analizzare lo stesso contenuto simultaneamente. TruthScan usa un approccio ensemble per minimizzare errori; se un modello è specializzato nel rilevare immagini Midjourney e un altro nelle modifiche Photoshop, usarli insieme garantisce copertura e accuratezza più ampie.
Morphing Facciale
Una tecnica che fonde due o più volti in un'unica transizione fluida. Usato in frodi di identità e creazione di persone sintetiche, i volti morphed possono eludere i sistemi di riconoscimento. Il rilevamento cerca punti di riferimento facciali incoerenti o artefatti di fusione.
O
Outpainting
Il processo AI di estendere un'immagine oltre i suoi bordi originali, generando nuovi contenuti per riempire la tela espansa. A differenza dell'inpainting, che riempie buchi all'interno di un'immagine, l'outpainting aggiunge contenuti periferici. Il rilevamento cerca cuciture o incoerenze in cui le estensioni generate incontrano il frame originale.
P
Pattern di Diffusione
Texture sottili, simili a rumore, specifiche dei Modelli di Diffusione (strumenti AI generativi come Midjourney, DALL-E o Stable Diffusion). Questi modelli generano immagini affinando rumore statico, lasciando spesso dietro un pattern microscopico a griglia invisibile a occhio nudo ma rilevabile da algoritmi forensi.
Persona Sintetica
Un'identità digitale fotorealistica—incluso un volto e profilo—creata interamente da AI. A differenza di un deepfake, che imita una persona reale, una persona sintetica non corrisponde a nessun essere umano. Queste sono frequentemente usate per creare profili non rilevabili per bot di social media o frodi.
Provenienza Contenuti
Informazioni che tracciano l'origine e la cronologia delle modifiche di un contenuto media. Standard come C2PA (Coalition for Content Provenance and Authenticity) e CAI (Content Authenticity Initiative) abilitano la firma crittografica in modo che gli spettatori possano verificare come i contenuti sono stati creati e modificati.
Punteggio di Confidenza
Un valore percentuale (0-100%) che indica la certezza del sistema che un contenuto sia generato da AI. Un punteggio alto (es. 99%) rappresenta un rilevamento definitivo basato su prove forti, mentre un punteggio medio (es. 55%) suggerisce ambiguità o dati insufficienti.
R
Rendering Neurale
Tecniche guidate da AI che sintetizzano o manipolano immagini e video usando rappresentazioni apprese. Questo include campi di radianza neurale (NeRF), sintesi di texture neurali e metodi simili. Il rilevamento cerca gli artefatti caratteristici che questi approcci producono.
Rilevamento Cloni
Una tecnica forense che identifica regioni di un'immagine che sono state duplicate da un'altra parte nella stessa immagine. Gli algoritmi di rilevamento confrontano blocchi di pixel e cercano aree statisticamente identiche o quasi identiche, il che indica che un attaccante ha clonato una regione per nascondere o alterare contenuti.
Rilevamento Vitalità (Liveness Detection)
Un processo di sicurezza usato per verificare che la persona dietro una fotocamera sia un umano reale e respirante presente in quel momento. Il modello cerca micro-movimenti come il rossore della pelle indotto dal battito cardiaco e il battito naturale delle palpebre che i generatori AI spesso non riescono a replicare.
Rilevamento Zero-Shot
La capacità di un modello di rilevamento di identificare un falso da un nuovo generatore AI che non ha mai visto prima. Il modello cerca errori universali—come violazioni della fisica dell'illuminazione—che tutti i modelli AI attuali tendono a fare, indipendentemente da chi li ha costruiti.
Rumore
La texture casuale e granulosa trovata in tutte le fotografie digitali, simile alla statica su una TV. Nelle foto reali, questo rumore è causato dalla sensibilità del sensore della fotocamera alla luce e segue un pattern specifico e uniforme. Il modello cerca punti puliti in un'immagine rumorosa o pattern di rumore ripetitivi a griglia tipici della generazione AI.
S
Scambio Volto (Face Swap)
Un tipo specifico di deepfake che sostituisce il volto di una persona con un altro in video o immagini. A differenza della sintesi facciale completa, lo scambio volto trapianta un volto esistente su un corpo o scena diversa. Il rilevamento si concentra su artefatti di confine, discrepanze di illuminazione e movimenti facciali innaturali.
Splicing
Una forma di falsificazione di immagini in cui regioni da diverse immagini sorgente sono combinate in un unico composito. Chiamato anche compositing o taglia-e-incolla. Il rilevamento cerca incoerenze di illuminazione, prospettiva o texture tra le regioni unite.
T
Tabelle di Quantizzazione
La ricetta matematica specifica che una fotocamera o software usa per comprimere un'immagine. Se un'immagine afferma di provenire da una fotocamera Nikon ma usa la tabella di quantizzazione di Adobe Photoshop, è un forte indicatore che l'immagine è stata modificata o generata post-cattura.
Tecniche di Evasione
Metodi usati per evitare o ridurre la probabilità di rilevamento da parte dei rilevatori di contenuti AI. Questi possono includere compressione immagini, regolazione colore, aggiunta di rumore o uso di perturbazioni avversariali. Comprendere l'evasione aiuta a migliorare la robustezza del rilevatore.
Texture
La qualità superficiale e i dettagli fini di un oggetto in un'immagine, come pori della pelle, trame di tessuto, grana della carta o singoli fili di capelli. Il modello cerca levigatezza innaturale o superfici dall'aspetto di plastica, poiché l'AI spesso omogeneizza eccessivamente questi dettagli complessi.
Trasferimento Stile
Una tecnica AI che applica lo stile visivo di un'immagine (es. un dipinto) al contenuto di un'altra. Mentre spesso usato per effetto artistico, può anche oscurare la manipolazione. Il rilevamento può identificare confini di stile innaturali o impronte digitali statistiche di modelli di trasferimento stile.
TTS (Text-to-Speech)
Tecnologia che converte testo scritto in discorsi sintetici. Mentre la clonazione vocale imita una persona specifica, il TTS generale crea nuove voci da zero. Entrambi possono essere usati per audio sintetico. Il rilevamento cerca cadenza robotica, pause innaturali o artefatti di frequenza.