Glosario Completo de Detección de IA de TruthScan

Una guía de referencia completa para la terminología de detección de IA y forense digital. Busque o explore todos los términos para comprender la tecnología detrás de la autenticidad del contenido.

A
C
D
F
H
I
M
P
R
S
T
A

Análisis de Frecuencia de Parpadeo

Una técnica forense que monitorea con qué frecuencia y naturalidad un sujeto parpadea en un video. Los humanos tienen un ritmo biológico de parpadeo semi-predecible. Los deepfakes, particularmente los más antiguos o de menor calidad, a menudo muestran sujetos que parpadean muy raramente, demasiado rápido o no parpadean en absoluto.

Análisis del Canal Y

Analizar la capa de Luminancia (brillo) de una imagen por separado de su color. La IA a menudo obtiene el color correcto pero arruina la física de la iluminación. Al eliminar el color y mirar solo el Canal Y en escala de grises, estas inconsistencias de iluminación se vuelven mucho más obvias.

Artefactos

Distorsiones digitales, pixelación o errores visuales que aparecen en un archivo de imagen o video. En el contexto de la detección de IA, estos suelen ser artefactos generativos: detalles ilógicos como texturas distorsionadas, desenfoque extraño o bloques de resolución que no coinciden y que indican que la imagen fue sintetizada en lugar de capturada por una lente de cámara.

Artefactos de Ampliación

Distorsiones introducidas cuando una IA intenta aumentar la resolución de una imagen borrosa o pequeña. El modelo busca detalles paradójicos, como pestañas muy nítidas junto a poros de piel borrosos, sugiriendo que la IA alucinó nuevos detalles en un original de baja calidad.

Artefactos Temporales

Inconsistencias visuales que aparecen con el tiempo en lugar de en un solo fotograma. En videos de IA, elementos como el tono de piel, gafas o texturas de fondo pueden parpadear, vibrar o cambiar de manera antinatural de fotograma a fotograma mientras la IA lucha por mantener la consistencia temporal.

Ataque de Recaptura

Una técnica de fraude donde un usuario muestra un deepfake o foto estática en una pantalla y luego usa una segunda cámara para filmar esa pantalla. El modelo busca patrones de moiré, resplandor de pantalla o la cuadrícula de píxeles del dispositivo monitor.

C

Clonación de Voz

El uso de IA para generar una voz sintética que imita el tono, acento y cadencia de una persona específica. El modelo busca artefactos robóticos en los patrones de respiración o brechas de frecuencia que las cuerdas vocales humanas no pueden producir.

D

Deepfake

Medios en los que la apariencia de una persona (rostro o voz) ha sido intercambiada o manipulada de manera realista usando inteligencia artificial. A diferencia del arte de IA estándar, los deepfakes están específicamente diseñados para imitar individuos reales, a menudo haciéndolos decir o hacer cosas que nunca hicieron.

Deriva de Sincronización Labial

Un artefacto temporal en videos donde el movimiento de la boca no se alinea perfectamente con la pista de audio. Incluso una falta de coincidencia de unos pocos milisegundos puede ser un fuerte indicador de un deepfake, donde una pista de audio está impulsando una cara generada por computadora.

Detección de Vitalidad

Un proceso de seguridad utilizado para verificar que la persona detrás de una cámara es un humano real y que respira presente en ese momento. El modelo busca micro-movimientos como enrojecimiento de la piel inducido por latidos cardíacos y parpadeo natural que los generadores de IA a menudo no logran replicar.

Detección Zero-Shot

La capacidad de un modelo de detección para identificar una falsificación de un nuevo generador de IA que nunca ha visto antes. El modelo busca errores universales—como violaciones de la física de iluminación—que todos los modelos de IA actuales tienden a cometer, independientemente de quién los construyó.

F

Falso Positivo

Una instancia donde el sistema de detección identifica incorrectamente contenido auténtico hecho por humanos como generado por IA. Si bien los sistemas están diseñados para minimizar esto, los falsos positivos ocasionalmente pueden ser activados por compresión pesada, filtrado extremo o archivos de baja resolución.

Falsos Negativos

Un error donde el sistema de detección falla en identificar una imagen generada por IA o manipulada, etiquetándola incorrectamente como Real o Humana. Esto típicamente ocurre con modelos de IA de próxima generación altamente sofisticados o imágenes que han sido fuertemente comprimidas para ocultar sus huellas digitales.

Fantasmas JPEG

Contornos tenues e invisibles que aparecen cuando una imagen ha sido guardada múltiples veces en diferentes niveles de calidad. El modelo detecta estas firmas de compresión que no coinciden para encontrar objetos insertados o áreas manipuladas.

Fotograma Clave

Una imagen completa e independiente dentro de un archivo de video. La mayoría de los fotogramas de video solo registran cambios del momento anterior para ahorrar espacio, pero los fotogramas clave capturan la imagen completa. Analizamos fotogramas clave para artefactos de mayor resolución que podrían estar borrosos en el resto del video.

H

Hash

Un método digital de crear una huella digital única para un archivo. Si incluso un solo píxel en una imagen cambia, su valor hash cambia completamente. TruthScan usa hash para verificar si un archivo coincide con una base de datos de deepfakes conocidos u originales distintos confirmados.

Huella Acústica

Las características únicas y medibles de una señal de audio. Así como una huella dactilar humana es única, una voz tiene formas específicas en sus ondas sonoras. TruthScan analiza estas características para detectar clonación de voz, buscando la falta de sonidos naturales de respiración o la falta de naturalidad que a menudo se encuentra en el habla sintética.

I

Imagen Fantasma / Fantasma

Una anomalía visual donde un objeto parece tener un duplicado o rastro translúcido y tenue visible cerca. Este es un fallo común en la generación de IA cuando el modelo intenta renderizar objetos en movimiento o geometrías complejas, resultando en un efecto de doble exposición borroso.

Inconsistencias a Nivel de Píxel

Irregularidades en la relación entre píxeles adyacentes que generalmente son invisibles a simple vista. Las cámaras crean imágenes con un patrón de ruido natural y específico; los generadores de IA a menudo organizan píxeles con una precisión matemática o huella estadística que difiere de la captura óptica natural.

Información EXIF

Un estándar específico para almacenar metadatos en archivos de imagen. Actúa como un diario digital, registrando detalles técnicos como la marca/modelo de la cámara, velocidad de obturación, distancia focal, fecha y a veces coordenadas GPS. El modelo busca discrepancias, como una imagen que afirma ser de un iPhone pero carece de las etiquetas de software específicas que un iPhone siempre agrega.

Inpainting

El proceso de usar IA para generar o reemplazar solo una parte específica de una imagen existente mientras se preserva el área circundante. Las herramientas de detección buscan costuras o inconsistencias estadísticas donde el parche generado por IA se encuentra con la fotografía original y orgánica.

M

Manipulación Digital

Cualquier alteración de un archivo de medios usando herramientas de software (como Photoshop) o algoritmos de IA. Si bien las ediciones simples como los ajustes de brillo son comunes, la manipulación forense implica cambios sustanciales—como eliminar objetos, deformar características faciales o insertar elementos falsos—que alteran el contexto o la veracidad de la imagen. El modelo busca inconsistencias en la iluminación, sombras que no coinciden con la fuente de luz o patrones clonados.

Mapa de Calor de Detección

Una herramienta de informe visual que superpone un gradiente de color sobre la imagen analizada o el fotograma de video. En lugar de una simple etiqueta Falso, el mapa de calor resalta las regiones específicas donde se detectó la manipulación (por ejemplo, colorear una cara de rojo para indicar un deepfake mientras se deja el fondo azul).

Marca de Agua Digital

Señales invisibles incrustadas en archivos de medios por generadores de IA responsables (como SynthID de Google) para etiquetarlos como creados por IA. TruthScan escanea estas firmas específicas y ocultas del proveedor que confirman que una imagen fue generada por IA.

Metadatos

Datos ocultos sobre datos incrustados dentro de un archivo digital, que contienen detalles como el modelo de cámara, fecha de captura y ubicación GPS. Los generadores de IA a menudo eliminan estos datos o insertan sus propias etiquetas. El análisis forense examina la estructura de estos metadatos para verificar si coincide con el dispositivo de origen alegado.

Metadatos XMP

Plataforma Extensible de Metadatos. Un estándar utilizado por software de edición (como Adobe) para almacenar registros de historial dentro de un archivo de imagen. El modelo busca rastros del historial de edición, como registros que dicen 'Creado con Stable Diffusion' incluso si los datos EXIF principales fueron borrados.

Modelo Ensemble

Una estrategia de detección que usa múltiples modelos de IA diferentes para analizar el mismo contenido simultáneamente. TruthScan usa un enfoque ensemble para minimizar errores; si un modelo está especializado en detectar imágenes de Midjourney y otro en ediciones de Photoshop, usarlos juntos asegura una cobertura más amplia y precisión.

P

Patrones de Difusión

Texturas sutiles similares al ruido específicas de los Modelos de Difusión (herramientas de IA generativa como Midjourney, DALL-E o Stable Diffusion). Estos modelos generan imágenes refinando ruido estático, a menudo dejando un patrón microscópico similar a una cuadrícula que es invisible a simple vista pero detectable por algoritmos forenses.

Persona Sintética

Una identidad digital fotorrealista—incluyendo un rostro y perfil—creada completamente por IA. A diferencia de un deepfake, que imita a una persona real, una persona sintética no corresponde a ningún ser humano. Estas se usan frecuentemente para crear perfiles indetectables para bots de redes sociales o fraude.

Puntuación de Confianza

Un valor porcentual (0–100%) que indica la certeza del sistema de que una pieza de contenido fue generada por IA. Una puntuación alta (por ejemplo, 99%) representa una detección definitiva basada en evidencia sólida, mientras que una puntuación intermedia (por ejemplo, 55%) sugiere ambigüedad o datos insuficientes.

R

Reflejos Especulares

La reflexión de fuentes de luz visibles en superficies brillantes, particularmente el brillo de los ojos en los ojos de un sujeto. En una foto real, la forma y posición de estos reflejos coinciden con el entorno (por ejemplo, una ventana cuadrada). La IA a menudo renderiza estos incorrectamente, creando reflejos que no coinciden o geométricamente imposibles.

Ruido

La textura aleatoria y granulada que se encuentra en todas las fotografías digitales, similar al ruido estático en un televisor. En fotos reales, este ruido es causado por la sensibilidad del sensor de la cámara a la luz y sigue un patrón específico y uniforme. El modelo busca puntos limpios en una imagen ruidosa o patrones de ruido repetitivos similares a una cuadrícula típicos de la generación de IA.

S

Sobre-suavizado

Una característica visual donde las texturas (como la piel o la tela) carecen de detalles naturales y aparecen plásticas o cerosas. Los modelos de IA a menudo promedian detalles complejos que no entienden, resultando en piel que parece haber sido fuertemente retocada.

T

Tablas de Cuantización

La receta matemática específica que una cámara o software usa para comprimir una imagen. Si una imagen afirma ser de una cámara Nikon pero usa la tabla de cuantización de Adobe Photoshop, es un fuerte indicador de que la imagen fue editada o generada después de la captura.

Textura

La calidad de la superficie y los detalles finos de un objeto en una imagen, como poros de la piel, tejidos de tela, grano de papel o hebras individuales de cabello. El modelo busca suavidad antinatural o superficies con apariencia plástica, ya que la IA a menudo sobre-homogeneiza estos detalles complejos.