TruthScan AI 탐지·디지털 포렌식 용어집

AI 탐지와 디지털 포렌식 용어 완전 안내입니다. 콘텐츠 진위 분석 기술을 이해하려면 용어를 검색하거나 둘러보세요.

A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z

A

아티팩트 (Artifacts)

이미지·영상에 나타나는 디지털 왜곡·픽셀화·시각 오류입니다. 생성 아티팩트는 왜곡된 질감, 이상한 블러 등 합성 흔적을 뜻합니다.

음향 지문 (Acoustic Fingerprint)

오디오 신호만의 고유·측정 가능한 특성입니다. TruthScan은 음성 복제 탐지를 위해 자연스러운 호흡음 부재나 합성 음성에서 흔한 평탄함 등을 분석합니다.

적대적 공격 (Adversarial Attack)

이미지·오디오에 미세·의도적 변화를 가해 AI 탐지기를 속이려는 기법입니다. 견고한 모델은 이러한 회피 시도에 저항하도록 학습됩니다.

B

깜빡임 빈도 분석 (Blink Rate Analysis)

영상에서 피사체가 얼마나 자연스럽게 깜빡이는지 보는 법의학 기법입니다. 딥페이크는 깜빡임이 너무 적거나 빠르거나 없는 경우가 많습니다.

C

복사-이동 위조 (Copy-Move Forgery)

이미지 한 부분을 복사해 같은 이미지 다른 곳에 붙이는 위조 유형입니다. 동일 픽셀 블록 탐지로 검출합니다.

복제 영역 탐지 (Clone Detection)

같은 이미지 안에서 다른 부분을 복사해 붙인 영역을 찾는 법의학 기법입니다. 통계적으로 동일한 픽셀 블록을 비교합니다.

신뢰도 점수 (Confidence Score)

콘텐츠가 AI 생성일 가능성에 대한 0–100% 확신도입니다. 높은 점수는 강한 증거, 중간은 모호함을 뜻합니다.

압축 아티팩트 (Compression Artifacts)

JPEG·MPEG 등 압축·해제 시 생기는 블록 현상, 링잉, 색 띠 등입니다. 영역별 재압축 불일치를 분석할 수 있습니다.

증거 보존 연속성 (Chain of Custody)

디지털 증거를 누가 언제 다뤘는지 기록해 취득부터 분석까지 무결성을 증명하는 절차입니다.

콘텐츠 출처 (Content Provenance)

미디어의 기원과 편집 이력을 추적하는 정보입니다. C2PA·CAI 등은 암호 서명으로 생성·수정 과정을 검증할 수 있게 합니다.

D

디지털 조작 (Digital Manipulation)

Photoshop·AI 등으로 미디어를 바꾸는 행위입니다. 조명·그림자 불일치, 복제 패턴 등 불일치를 모델이 찾습니다.

디퓨전 패턴 (Diffusion Patterns)

Midjourney·DALL-E·Stable Diffusion 등 디퓨전 모델이 남기는 미세한 노이즈형 질감·격자형 패턴입니다.

딥페이크 (Deepfake)

AI로 특정인의 얼굴·목소리를 실제처럼 바꾼 미디어입니다. 실존 인물을 흉내 내 허위 행동·발언을 만들 때 쓰입니다.

탐지 히트맵 (Detection Heatmap)

분석 이미지·프레임에 색 그라데이션을 겹쳐 조작이 의심되는 영역을 표시합니다(예: 얼굴은 빨강, 배경은 파랑).

E

ELA (Error Level Analysis)

이미지를 알려진 품질로 다시 저장한 뒤 압축 오차를 비교하는 법의학 기법입니다. 편집·AI 영역은 밝기가 다르게 나타납니다.

EXIF 정보

이미지에 카메라 모델, 셔터 속도, 날짜, GPS 등을 담는 메타데이터 표준입니다. 주장 장치와 태그 불일치를 검사합니다.

앙상블 모델 (Ensemble Model)

여러 AI 모델이 동시에 같은 콘텐츠를 분석하는 전략입니다. TruthScan은 오류를 줄이고 범위를 넓히기 위해 앙상블을 사용합니다.

회피 기법 (Evasion Techniques)

압축, 색 조정, 노이즈 추가, 적대적 교란 등 탐지를 피하려는 방법입니다. 회피 이해는 탐지기 견고함 향상에 도움이 됩니다.

F

거짓 양성 (False Positive)

실제 사람이 만든 콘텐츠를 AI로 잘못 판정하는 경우입니다. 과도한 압축, 극단 필터, 저해상도에서 가끔 발생합니다.

거짓 음성 (False Negatives)

AI 생성·조작임에도 진짜로 잘못 판정하는 오류입니다. 최신 모델이나 강한 압축으로 지문이 숨겨지면 발생하기 쉽습니다.

얼굴 모핑 (Face Morphing)

두 얼굴 이상을 부드럽게 섞는 기법입니다. 신원 사기·합성 페르소나에 쓰이며 랜드마크·블렌딩 아티팩트를 탐지합니다.

페이스 스왑 (Face Swap)

영상·이미지에서 한 사람 얼굴을 다른 사람으로 바꾼 딥페이크 유형입니다. 경계 아티팩트, 조명 불일치, 부자연스러운 움직임을 봅니다.

G

GAN (Generative Adversarial Network)

생성기와 판별기가 경쟁하는 구조입니다. 초기 합성·딥페이크에 흔히 쓰였으며 GAN 특유의 아티팩트를 모델이 학습합니다.

고스팅 (Ghosting)

객체 옆에 희미한 이중상·잔상이 보이는 현상입니다. AI가 움직이는 물체나 복잡한 형상을 그릴 때 흔한 실패입니다.

H

해싱 (Hashing)

파일에 대한 고유 지문을 만드는 방법입니다. 픽셀 하나만 바꿔도 해시가 달라집니다. 알려진 딥페이크·원본과 비교에 쓰입니다.

환각 (Hallucination)

모델이 그럴듯하지만 사실과 다르거나 모순된 세부를 만드는 현상입니다. 이미지에서는 여분 손가락, 불가능한 물체 등으로 나타납니다.

I

인페인팅 (Inpainting)

기존 이미지의 일부만 AI로 채우거나 바꾸는 과정입니다. 생성 영역과 원본 사진의 이음새·통계 불일치를 찾습니다.

J

JPEG 고스트

여러 번 다른 품질로 저장할 때 생기는 희미한 윤곽입니다. 삽입·조작 영역의 불일치 압축 서명을 찾는 데 쓰입니다.

K

키프레임 (Keyframe)

영상에서 전체 화면을 담는 독립 프레임입니다. 나머지는 차분만 저장하므로 키프레임에서 고해상도 아티팩트를 분석합니다.

L

라이브니스 탐지 (Liveness Detection)

카메라 앞이 실제 호흡하는 사람인지 확인하는 보안 절차입니다. 맥박에 따른 미세 피부 변화, 자연스러운 깜빡임 등을 봅니다.

립싱크 드리프트 (Lip-Sync Drift)

입 움직임과 오디오가 완전히 맞지 않는 시간적 아티팩트입니다. 수 ms만 어긋나도 딥페이크 강한 단서가 됩니다.

M

메타데이터 (Metadata)

파일 안에 숨은 촬영 일시, 기기, GPS 등 부가 정보입니다. 생성기는 제거하거나 자체 태그를 넣기도 해 구조를 검사합니다.

모델 핑거프린팅 (Model Fingerprinting)

어떤 AI 모델이 콘텐츠를 만들었는지 식별하는 과정입니다. Midjourney·DALL-E·Stable Diffusion 등 벤더별 서명이 다를 수 있습니다.

N

노이즈 (Noise)

디지털 사진의 무작위 입자 질감입니다. 실제 사진은 센서 특성에 맞는 패턴인데, AI는 지나치게 깨끗하거나 격자형 노이즈를 남깁니다.

신경 렌더링 (Neural Rendering)

학습된 표현으로 이미지·영상을 합성·조작하는 AI 기법입니다. NeRF 등 특유의 아티팩트를 탐지합니다.

O

과도한 스무딩 (Over-smoothing)

피부·직물 질감이 플라스틱처럼 매끈해 보이는 현상입니다. AI가 세부를 평균 내 에어브러시한 듯 보이게 합니다.

아웃페인팅 (Outpainting)

이미지 경계 밖을 확장해 새 내용을 채우는 AI 과정입니다. 확장부와 원본 프레임이 만나는 이음새를 봅니다.

P

픽셀 수준 불일치 (Pixel-Level Inconsistencies)

인접 픽셀 관계의 미세한 불규칙입니다. 카메라는 자연스러운 노이즈 패턴을, 생성기는 광학 포착과 다른 통계적 지문을 남깁니다.

Q

양자화 테이블 (Quantization Tables)

카메라·소프트웨어가 이미지를 압축할 때 쓰는 수학적 규칙입니다. 주장 장치와 Photoshop 테이블이 다르면 편집·생성 의심이 큽니다.

R

재촬영 공격 (Recapture Attack)

화면에 딥페이크·사진을 띄운 뒤 다른 카메라로 다시 찍는 사기입니다. 무아레, 반사, 모니터 픽셀 격자를 찾습니다.

S

반사 하이라이트 (Specular Highlights)

눈·광택 표면에 비치는 광원 반사입니다. 실제 사진은 환경과 일치하는데 AI는 기하학적으로 불가능한 반사를 그리기도 합니다.

스타일 전송 (Style Transfer)

한 이미지의 화풍을 다른 이미지 내용에 입히는 AI 기법입니다. 부자연스러운 스타일 경계나 모델 지문을 탐지할 수 있습니다.

스플라이싱 (Splicing)

서로 다른 원본 이미지 영역을 한 장에 붙이는 위조입니다. 조명·원근·질감 불일치를 봅니다.

출처 귀속 (Source Attribution)

콘텐츠를 만든 기기·소프트웨어·AI 모델을 밝히는 것입니다. 메타데이터, 압축 지문, 모델별 아티팩트를 분석합니다.

합성 페르소나 (Synthetic Persona)

실존하지 않는 사람의 얼굴·프로필을 AI로 만든 정체성입니다. 봇·사기용 가짜 프로필에 쓰입니다.

T

TTS (Text-to-Speech)

글을 합성 음성으로 바꾸는 기술입니다. 음성 복제와 달리 새 목소리를 만듭니다. 기계적 억양·비자연스러운 쉼을 봅니다.

변조 (Tampering)

시청자를 속이려 디지털 미디어를 의도적으로 바꾸는 행위입니다. 이미지 합성부터 메타데이터 조작까지 포함합니다.

시간적 아티팩트 (Temporal Artifacts)

한 프레임이 아니라 시간에 따라 드러나는 불일치입니다. AI 영상에서 피부톤·안경·배경이 프레임마다 떨리거나 변합니다.

질감 (Texture)

피부 모공, 직물, 종이 결, 머리카락 한 올까지 표면의 미세 디테일입니다. AI는 종종 과도하게 매끈하게 만듭니다.

U

업스케일링 아티팩트 (Upscaling Artifacts)

AI가 작은·흐린 이미지를 키울 때 생기는 왜곡입니다. 날카로운 속눈썹 옆에 흐린 모공처럼 모순된 디테일이 나타날 수 있습니다.

V

보이스프린트 (Voiceprint)

목소리 고유 특성에서 뽑은 생체 식별자입니다. 인증이나 알려진 목소리 사칭 탐지에 쓰입니다.

음성 복제 (Voice Cloning)

특정인의 억양·억양을 흉내 내 합성 음성을 만드는 AI입니다. 호흡 패턴의 기계적 아티팩트나 주파수 간극을 봅니다.

W

디지털 워터마킹 (Watermarking)

책임 있는 생성기(SynthID 등)가 AI 생성임을 표시하기 미디어에 넣는 보이지 않는 신호입니다. TruthScan은 이런 벤더 서명을 스캔합니다.

X

XMP 메타데이터

Adobe 등이 이미지에 편집 이력 로그를 저장하는 확장 메타데이터 표준입니다. EXIF가 지워져도 'Stable Diffusion으로 생성' 같은 흔적을 찾을 수 있습니다.

Y

Y채널 분석 (Y-Channel Analysis)

색을 떼고 휘도(밝기)만 분석합니다. AI는 색은 맞추어도 조명 물리를 어긋나게 그리는 경우가 많아 흑백에서 불일치가 드러납니다.

Z

제로샷 탐지 (Zero-Shot Detection)

학습에 없던 새 생성기의 위조도 찾는 능력입니다. 조명 물리 위반 등 현재 모델들이 공통으로 범하는 오류를 찾습니다.