TruthScan 人工智能检测与数字取证术语大全
关于人工智能(AI)检测与数字取证术语的完整参考。可搜索或按字母浏览全部词条,了解内容真实性分析背后的核心概念与技术。
B
保管链(Chain of Custody)
记录数字证据由谁、在何时经手的文档化流程,确保证据从采集到分析的完整性。在取证调查中,保管链对证明媒体在获取与检测之间未被篡改至关重要。
C
超分辨率伪影(Upscaling Artifacts)
AI 试图提高模糊或小图分辨率时引入的失真。模型寻找矛盾细节,如睫毛极锐利而相邻皮肤毛孔模糊,暗示 AI 在低质量原图上“幻觉”出新细节。
唇音不同步(Lip-Sync Drift)
视频中口型与音轨未完美对齐的时间性伪影。即使毫秒级偏差也可能是深度伪造的强信号——音轨驱动计算机生成面部时尤为常见。
篡改(Tampering)
为欺骗观看者而故意改动数字媒体的广义行为,涵盖拼接、改元数据等任何意图歪曲现实的修改。检测系统旨在识别篡改迹象。
D
对抗攻击(Adversarial Attack)
通过对图像或音频做微小、刻意的改动来欺骗 AI 检测系统的手法。攻击者可能加入人眼难以察觉的扰动或变换以规避检测。稳健的检测模型会针对此类规避进行训练。
E
EXIF 信息
存储在图像文件中的元数据标准,如同数字日志,记录相机型号、快门、焦距、日期,有时含 GPS。模型会查找矛盾之处,例如声称来自 iPhone 却缺少 iPhone 通常带有的软件标签。
F
翻摄攻击(Recapture Attack)
用户在屏幕上显示深度伪造或静态照片,再用另一台设备拍摄屏幕的欺诈手法。模型寻找摩尔纹、屏幕反光或显示器像素网格。
风格迁移(Style Transfer)
将一幅图像的视觉风格(如绘画风格)应用到另一幅图像内容上的 AI 技术。既可用于艺术效果,也可掩盖篡改。检测可识别不自然的风格边界或风格迁移模型的统计痕迹。
复制—移动伪造(Copy-Move Forgery)
将图像某区域复制并粘贴到同一张图另一处的伪造方式,用于隐藏物体、复制元素或伪造场景。取证工具通过寻找统计上完全相同的像素块来发现。
G
关键帧(Keyframe)
视频中的完整独立画面。多数帧只记录相对前一帧的变化以节省空间,关键帧则保存整幅画面。分析关键帧可发现其余帧中被模糊掉的高分辨率伪影。
规避技术(Evasion Techniques)
用于规避或降低被 AI 内容检测器识别的概率的方法,可能包括压缩、调色、加噪或对抗扰动。理解规避有助于提升检测器鲁棒性。
鬼影 / 重影(Ghosting)
物体旁出现淡淡半透明重影或拖尾的视觉异常。AI 生成在表现运动物体或复杂几何时常见失败,产生类似双重曝光的模糊效果。
过度平滑(Over-smoothing)
皮肤、织物等纹理缺乏自然细节、呈塑料或蜡质感的视觉特征。AI 常将不理解的复杂细节平均化,使皮肤看起来像被过度磨皮。
H
哈希(Hashing)
为文件生成唯一数字指纹的方法。图像中哪怕一个像素改变,哈希值也会完全不同。TruthScan 用哈希比对文件是否与已知深度伪造库或已确认原件匹配。
合成身份(Synthetic Persona)
完全由 AI 生成的逼真数字身份(含面部与资料)。与模仿真人的深度伪造不同,合成身份不对应任何真实个人,常用于社媒机器人或欺诈的隐蔽账号。
幻觉(Hallucination)
模型生成看似合理但事实错误、不一致或无意义细节的现象。图像中可能表现为多余手指、不可能物体或逻辑混乱的背景。检测可识别语义或结构上的不可能性。
换脸
在视频或图像中将一人面部替换为另一人面部的深度伪造类型。与全脸合成不同,换脸将已有面部移植到不同身体或场景。检测关注边界伪影、光照不匹配与不自然的面部运动。
活体检测(Liveness Detection)
验证镜头前是否为真实、当时在场的人类的安全流程。模型寻找心跳引起的肤色微动、自然眨眼等 AI 常难以复制的细节。
J
集成模型(Ensemble Model)
同时使用多个不同 AI 模型分析同一内容的检测策略。TruthScan 采用集成方法以降低误差:例如一个模型擅长 Midjourney 图像,另一个擅长 Photoshop 痕迹,联合可提高覆盖面与准确度。
检测热力图(Detection Heatmap)
在分析的图像或视频帧上叠加颜色渐变的可视化报告。除简单的“伪造”标签外,热力图标出检测到篡改的具体区域(例如将面部标红表示深度伪造,背景保持另一种颜色)。
镜面高光(Specular Highlights)
光滑表面(尤其眼部)上光源的反射。真实照片中高光形状与位置与环境一致(如方形窗户)。AI 常错误渲染,产生不匹配或几何上不可能的反射。
JPEG 鬼影(JPEG Ghosts)
图像以不同质量多次保存时出现的微弱轮廓。模型通过不匹配的压缩特征发现插入物体或篡改区域。
K
克隆检测(Clone Detection)
识别图像中从同一张图其他区域复制而来的区域的取证技术。检测算法比较像素块,寻找统计上完全相同或高度相似的区域,表明攻击者克隆某区域以隐藏或篡改内容。
扩散模型痕迹(Diffusion Patterns)
扩散模型(如 Midjourney、DALL-E、Stable Diffusion)特有的细微、类似噪声的纹理。这类模型通过对静态噪声迭代细化生成图像,常留下肉眼难辨、但可被取证算法识别的微观网格状痕迹。
L
来源归因(Source Attribution)
确定内容由何种设备、软件或 AI 模型产生,可能涉及元数据、压缩指纹或模型特有伪影。来源归因有助于验证真实性与追踪篡改。
量化表(Quantization Tables)
相机或软件用于压缩图像的数学规则。若图像声称来自尼康却使用 Photoshop 的量化表,强烈暗示图像在采集后被编辑或生成。
零样本检测(Zero-Shot Detection)
检测模型识别从未见过的新型生成器所造假内容的能力。模型依赖各类当前 AI 普遍存在的共性错误(如违反光照物理),而不依赖特定厂商。
漏检(False Negatives)
检测系统未能识别 AI 生成或篡改内容,错误标为真实或人类制作。多见于新一代高逼真模型或经重度压缩以隐藏数字指纹的图像。
M
模型指纹(Model Fingerprinting)
识别内容由哪一 AI 模型或生成器产生的过程。不同模型会留下不同的统计或结构特征,取证工具有时可将合成内容归因到 Midjourney、DALL-E 或 Stable Diffusion 等。
N
内容溯源(Content Provenance)
追溯媒体来源与编辑历史的信息。C2PA、CAI 等标准支持加密签名,使查看者能验证内容如何被创建与修改。
P
拼接(Splicing)
将不同来源图像的区域合成为一张图的伪造方式,也称合成或剪贴。检测寻找拼接区域之间的光照、透视或纹理不一致。
R
人脸融合(Face Morphing)
将两张或多张人脸融合为平滑过渡图像的技术,可用于身份欺诈或合成身份。检测关注面部关键点不一致或融合伪影。
S
深度伪造(Deepfake)
利用人工智能逼真替换或操纵人物外貌(面部或声音)的媒体。与普通 AI 绘画不同,深度伪造旨在模仿真实个人,常使其说出或做出从未发生的事。
神经渲染(Neural Rendering)
用学习到的表征合成或操纵图像与视频的 AI 技术,包括 NeRF、神经纹理合成等。检测针对这些方法产生的特征性伪影。
生成对抗网络(GAN)
两个神经网络相互对抗的架构:生成器造伪内容,判别器试图识别。许多早期深度伪造与合成图像使用 GAN。检测模型会学习识别 GAN 常见的特征性伪影。
声纹(Voiceprint)
由个人声音独特特征推导的生物特征标识,类似声纹指纹。声纹可用于认证或检测合成语音是否在冒充已知人声。
声纹指纹(Acoustic Fingerprint)
音频信号中可测量的独特特征。如同人的指纹,语音在声波中也有特定形态。TruthScan 通过分析这些特征检测语音克隆,例如缺乏自然呼吸声或合成语音常见的“扁平”质感。
时间维伪影(Temporal Artifacts)
随时间出现而非单帧内的视觉不一致。在 AI 视频中,肤色、眼镜或背景纹理可能在帧间闪烁、抖动或异常变化,因 AI 难以保持时间一致性。
数字篡改(Digital Manipulation)
使用软件工具(如 Photoshop)或算法对媒体进行的任何修改。简单调色很常见,而取证意义上的篡改包括移除物体、扭曲五官或插入虚假元素等实质性改变。模型会寻找光照不一致、阴影与光源不符或克隆图案等线索。
数字水印(Watermarking)
负责任 AI 生成器(如 Google SynthID)在媒体中嵌入的不可见信号,用于标记为 AI 创建。TruthScan 可扫描这些隐藏厂商签名以确认图像为 AI 生成。
T
图像修复(Inpainting)
用 AI 在保留周围区域的前提下,仅生成或替换图像局部。检测工具会寻找 AI 补片与原始照片接合处的接缝或统计不一致。
W
外绘(Outpainting)
将图像边界向外扩展并由 AI 填充新内容的流程。与修复孔洞的内绘不同,外绘在画幅外围增加内容。检测关注生成扩展与原图衔接处的接缝或不一致。
伪影(Artifacts)
图像或视频文件中出现的数字失真、马赛克或视觉错误。在 AI 检测语境下,多为生成伪影——如扭曲纹理、异常模糊或分辨率块不匹配等不合逻辑细节,表明图像由合成而非镜头拍摄。
纹理(Texture)
物体表面的质感与细微细节,如毛孔、织物织法、纸张纤维或发丝。模型寻找不自然的平滑或塑料感表面,因 AI 常过度同质化这些复杂细节。
误报(False Positive)
系统将真实、人类创作的内容错误识别为 AI 生成。虽力求最小化,重度压缩、极端滤镜或低分辨率文件仍可能触发误报。
误差水平分析(ELA)
将图像以已知质量重新保存并比较压缩误差的取证技术。编辑或 AI 生成区域与原始区域的误差水平往往不同——被添加或修改的区域在分析中会显得更亮或更暗。
X
像素级不一致(Pixel-Level Inconsistencies)
相邻像素关系中的细微异常,肉眼通常不可见。相机成像有自然噪点模式;生成器排列像素时往往带有与自然光学采集不同的数学精度或统计指纹。
XMP 元数据
可扩展元数据平台,编辑软件(如 Adobe)用于在图像内存储历史日志。模型寻找编辑痕迹,例如主 EXIF 已清除但仍有“由 Stable Diffusion 创建”等记录。
Y
压缩伪影(Compression Artifacts)
图像或视频经压缩再解压时产生的失真(如 JPEG、MPEG)。其与生成伪影不同——压缩会导致块状效应、振铃或色带。取证分析可发现重复压缩或区域间压缩不一致。
语音合成(TTS)
将文字转为合成语音的技术。语音克隆模仿特定人,而通用 TTS 从零创造新声音,二者均可用于合成音频。检测关注机械节奏、不自然停顿或频域伪影。
语音克隆(Voice Cloning)
用 AI 生成模仿特定人音色、口音与节奏的合成语音。模型寻找呼吸模式中的机械感或频隙等人声难以产生的特征。
元数据(Metadata)
嵌入数字文件、描述文件本身的隐藏信息,如相机型号、拍摄日期与 GPS。AI 生成器常剥离元数据或写入自有标签。取证会分析元数据结构是否与声称来源设备一致。
Y 通道分析(Y-Channel Analysis)
将图像的亮度层与色彩分开分析。AI 常色彩正确但违背光照物理;去掉色彩仅看灰度 Y 通道时,光照不一致会更明显。
Z
噪点(Noise)
数字照片中类似电视雪花点的随机颗粒感。真实照片中噪点由传感器感光产生,呈特定均匀分布。模型会寻找噪点图中的“过净”区域或 AI 典型的网格状重复噪点。
眨眼频率分析(Blink Rate Analysis)
监测视频中人物眨眼频率与自然程度的一种取证技术。人类眨眼节奏有一定生物学规律;深度伪造(尤其较旧或低质量)中人物往往眨眼过少、过快或完全不眨。
置信度分数(Confidence Score)
表示系统对内容为 AI 生成之确定程度的百分比(0–100%)。高分(如 99%)表示依据充分;中等分数(如 55%)可能表示模糊或数据不足。