Glossaire Complet de Détection IA de TruthScan
Un guide de référence complet pour la terminologie de la détection IA et de la criminalistique numérique. Recherchez ou parcourez tous les termes pour comprendre la technologie derrière l'authenticité du contenu.
Analyse du Canal Y
Analyser la couche de Luminance (luminosité) d'une image séparément de sa couleur. L'IA obtient souvent la couleur correcte mais gâche la physique de l'éclairage. En enlevant la couleur et en regardant uniquement le Canal Y en niveaux de gris, ces incohérences d'éclairage deviennent beaucoup plus évidentes.
Analyse du Taux de Clignement
Une technique médico-légale qui surveille la fréquence et la naturalité avec laquelle un sujet cligne des yeux dans une vidéo. Les humains ont un rythme biologique de clignement semi-prévisible. Les deepfakes, en particulier les plus anciens ou de moindre qualité, affichent souvent des sujets qui clignent trop rarement, trop rapidement ou pas du tout.
Artefacts
Distorsions numériques, pixellisation ou erreurs visuelles qui apparaissent dans un fichier image ou vidéo. Dans le contexte de la détection IA, ce sont souvent des artefacts génératifs—des détails illogiques comme des textures déformées, un flou étrange ou des blocs de résolution incompatibles qui indiquent que l'image a été synthétisée plutôt que capturée par un objectif d'appareil photo.
Artefacts d'Agrandissement
Distorsions introduites lorsqu'une IA tente d'augmenter la résolution d'une image floue ou petite. Le modèle recherche des détails paradoxaux, comme des cils très nets à côté de pores de peau flous, suggérant que l'IA a halluciné de nouveaux détails sur un original de faible qualité.
Artefacts Temporels
Incohérences visuelles qui apparaissent au fil du temps plutôt que dans une seule trame. Dans les vidéos IA, des éléments comme le teint de la peau, les lunettes ou les textures de fond peuvent scintiller, vibrer ou se déplacer de manière non naturelle de trame en trame alors que l'IA lutte pour maintenir la cohérence temporelle.
Attaque de Recapture
Une technique de fraude où un utilisateur affiche un deepfake ou une photo statique sur un écran puis utilise une deuxième caméra pour filmer cet écran. Le modèle recherche des motifs de moiré, l'éblouissement de l'écran ou la grille de pixels du dispositif moniteur.
Bruit
La texture granuleuse et aléatoire trouvée dans toutes les photographies numériques, similaire au bruit statique sur une télévision. Dans les vraies photos, ce bruit est causé par la sensibilité du capteur de l'appareil photo à la lumière et suit un motif spécifique et uniforme. Le modèle recherche des taches propres dans une image bruyante ou des motifs de bruit répétitifs en forme de grille typiques de la génération IA.
Carte de Chaleur de Détection
Un outil de rapport visuel qui superpose un dégradé de couleurs sur l'image analysée ou la trame vidéo. Au lieu d'un simple label Faux, la carte de chaleur met en évidence les régions spécifiques où la manipulation a été détectée (par exemple, colorer un visage en rouge pour indiquer un deepfake tout en laissant le fond bleu).
Clonage Vocal
L'utilisation de l'IA pour générer une voix synthétique qui imite le ton, l'accent et la cadence d'une personne spécifique. Le modèle recherche des artefacts robotiques dans les motifs de respiration ou les écarts de fréquence que les cordes vocales humaines ne peuvent pas produire.
Deepfake
Médias dans lesquels la ressemblance d'une personne (visage ou voix) a été échangée ou manipulée de manière réaliste en utilisant l'intelligence artificielle. Contrairement à l'art IA standard, les deepfakes sont spécifiquement conçus pour imiter de vrais individus, les faisant souvent dire ou faire des choses qu'ils n'ont jamais faites.
Dérive de Synchronisation Labiale
Un artefact temporel dans les vidéos où le mouvement de la bouche ne s'aligne pas parfaitement avec la piste audio. Même un décalage de quelques millisecondes peut être un fort indicateur d'un deepfake, où une piste audio pilote un visage généré par ordinateur.
Détection de Vivacité
Un processus de sécurité utilisé pour vérifier que la personne derrière une caméra est un humain réel et respirant présent à ce moment-là. Le modèle recherche des micro-mouvements comme la rougeur de la peau induite par les battements cardiaques et le clignement naturel que les générateurs IA échouent souvent à reproduire.
Détection Zero-Shot
La capacité d'un modèle de détection à identifier un faux d'un nouveau générateur IA qu'il n'a jamais vu auparavant. Le modèle recherche des erreurs universelles—comme les violations de la physique de l'éclairage—que tous les modèles IA actuels ont tendance à faire, peu importe qui les a construits.
Empreinte Acoustique
Les caractéristiques uniques et mesurables d'un signal audio. Tout comme une empreinte digitale humaine est unique, une voix a des formes spécifiques dans ses ondes sonores. TruthScan analyse ces caractéristiques pour détecter le clonage vocal, en recherchant l'absence de sons de respiration naturels ou la platitude souvent trouvée dans la parole synthétique.
Fantômes JPEG
Contours faibles et invisibles qui apparaissent lorsqu'une image a été enregistrée plusieurs fois à différents niveaux de qualité. Le modèle détecte ces signatures de compression incompatibles pour trouver des objets insérés ou des zones manipulées.
Faux Négatifs
Une erreur où le système de détection échoue à identifier une image générée par IA ou manipulée, l'étiquetant incorrectement comme Réelle ou Humaine. Cela se produit généralement avec des modèles IA de nouvelle génération hautement sophistiqués ou des images qui ont été fortement compressées pour masquer leurs empreintes digitales.
Faux Positif
Une instance où le système de détection identifie incorrectement un contenu authentique créé par l'homme comme généré par IA. Bien que les systèmes soient conçus pour minimiser cela, les faux positifs peuvent occasionnellement être déclenchés par une compression lourde, un filtrage extrême ou des fichiers à faible résolution.
Filigrane Numérique
Signaux invisibles intégrés dans les fichiers média par des générateurs IA responsables (comme SynthID de Google) pour les étiqueter comme créés par IA. TruthScan scanne ces signatures spécifiques et cachées du fournisseur qui confirment qu'une image est générée par IA.
Hachage
Une méthode numérique de création d'une empreinte digitale unique pour un fichier. Si même un seul pixel dans une image est modifié, sa valeur de hachage change complètement. TruthScan utilise le hachage pour vérifier si un fichier correspond à une base de données de deepfakes connus ou d'originaux distincts confirmés.
Image Clé
Une image complète et autonome dans un fichier vidéo. La plupart des trames vidéo n'enregistrent que les changements par rapport au moment précédent pour économiser de l'espace, mais les images clés capturent l'image complète. Nous analysons les images clés pour les artefacts à plus haute résolution qui pourraient être flous dans le reste de la vidéo.
Image Fantôme / Fantôme
Une anomalie visuelle où un objet semble avoir un double ou une traînée translucide et faible visible à proximité. C'est un échec courant dans la génération IA lorsque le modèle tente de rendre des objets en mouvement ou des géométries complexes, résultant en un effet de double exposition flou.
Incohérences au Niveau des Pixels
Irrégularités dans la relation entre les pixels adjacents qui sont généralement invisibles à l'œil nu. Les appareils photo créent des images avec un motif de bruit naturel et spécifique; les générateurs IA organisent souvent les pixels avec une précision mathématique ou une empreinte statistique qui diffère de la capture optique naturelle.
Informations EXIF
Une norme spécifique pour stocker les métadonnées dans les fichiers image. Elle agit comme un journal numérique, enregistrant des détails techniques tels que la marque/modèle de l'appareil photo, la vitesse d'obturation, la distance focale, la date et parfois les coordonnées GPS. Le modèle recherche des écarts, comme une image prétendant provenir d'un iPhone mais manquant des balises logicielles spécifiques qu'un iPhone ajoute toujours.
Inpainting
Le processus d'utilisation de l'IA pour générer ou remplacer uniquement une partie spécifique d'une image existante tout en préservant la zone environnante. Les outils de détection recherchent les coutures ou les incohérences statistiques où le patch généré par IA rencontre la photographie originale et organique.
Manipulation Numérique
Toute altération d'un fichier média utilisant des outils logiciels (comme Photoshop) ou des algorithmes IA. Bien que les modifications simples comme les ajustements de luminosité soient courantes, la manipulation médico-légale implique des changements substantiels—tels que la suppression d'objets, la déformation des traits du visage ou l'insertion d'éléments faux—qui altèrent le contexte ou la véracité de l'image. Le modèle recherche des incohérences dans l'éclairage, des ombres qui ne correspondent pas à la source lumineuse ou des motifs clonés.
Métadonnées
Données cachées sur les données intégrées dans un fichier numérique, contenant des détails tels que le modèle d'appareil photo, la date de capture et l'emplacement GPS. Les générateurs IA suppriment souvent ces données ou insèrent leurs propres balises. L'analyse médico-légale examine la structure de ces métadonnées pour vérifier si elle correspond à l'appareil source allégué.
Métadonnées XMP
Plateforme Extensible de Métadonnées. Une norme utilisée par les logiciels d'édition (comme Adobe) pour stocker les journaux d'historique dans un fichier image. Le modèle recherche des traces de l'historique d'édition, comme des journaux disant 'Créé avec Stable Diffusion' même si les données EXIF principales ont été effacées.
Modèle Ensemble
Une stratégie de détection qui utilise plusieurs modèles IA différents pour analyser le même contenu simultanément. TruthScan utilise une approche d'ensemble pour minimiser les erreurs; si un modèle est spécialisé dans la détection d'images Midjourney et un autre dans les modifications Photoshop, les utiliser ensemble assure une couverture plus large et une précision accrue.
Motifs de Diffusion
Textures subtiles semblables au bruit spécifiques aux Modèles de Diffusion (outils IA génératifs comme Midjourney, DALL-E ou Stable Diffusion). Ces modèles génèrent des images en affinant le bruit statique, laissant souvent derrière eux un motif microscopique en forme de grille invisible à l'œil nu mais détectable par les algorithmes médico-légaux.
Persona Synthétique
Une identité numérique photoréaliste—y compris un visage et un profil—créée entièrement par IA. Contrairement à un deepfake, qui imite une vraie personne, une persona synthétique ne correspond à aucun être humain. Celles-ci sont fréquemment utilisées pour créer des profils indétectables pour les bots de médias sociaux ou la fraude.
Reflets Spéculaires
La réflexion des sources lumineuses visibles sur les surfaces brillantes, en particulier l'éclat des yeux dans les yeux d'un sujet. Dans une vraie photo, la forme et la position de ces réflexions correspondent à l'environnement (par exemple, une fenêtre carrée). L'IA les rend souvent incorrectement, créant des réflexions incompatibles ou géométriquement impossibles.
Score de Confiance
Une valeur en pourcentage (0–100%) indiquant la certitude du système qu'un contenu est généré par IA. Un score élevé (par exemple, 99%) représente une détection définitive basée sur des preuves solides, tandis qu'un score moyen (par exemple, 55%) suggère une ambiguïté ou des données insuffisantes.
Sur-lissage
Une caractéristique visuelle où les textures (comme la peau ou le tissu) manquent de détails naturels et apparaissent plastiques ou cireuses. Les modèles IA font souvent la moyenne des détails complexes qu'ils ne comprennent pas, résultant en une peau qui semble avoir été fortement retouchée.
Tables de Quantification
La recette mathématique spécifique qu'un appareil photo ou un logiciel utilise pour compresser une image. Si une image prétend provenir d'un appareil photo Nikon mais utilise la table de quantification d'Adobe Photoshop, c'est un fort indicateur que l'image a été modifiée ou générée après la capture.
Texture
La qualité de surface et les détails fins d'un objet dans une image, tels que les pores de la peau, les tissus de tissu, le grain du papier ou les mèches individuelles de cheveux. Le modèle recherche une douceur non naturelle ou des surfaces à l'apparence plastique, car l'IA sur-homogénéise souvent ces détails complexes.