TruthScan AI検出・用語集
AI検出とデジタルフォレンジックの用語を網羅したリファレンスです。検索または一覧から、コンテンツ真正性の背後にある技術を理解できます。
A
アーティファクト(Artifacts)
画像や動画ファイルに現れるデジタルな歪み、ピクセル化、視覚的誤り。AI検出の文脈では、多くの場合生成アーティファクト—ねじれた質感、奇妙なぼかし、解像度の噛み合わないブロックなど、カメラではなく合成されたことを示す非論理的なディテールです。
音響フィンガープリント(Acoustic Fingerprint)
音声信号に固有の、測定可能な特徴。人の指紋が一意であるように、声には音波の波形に特有の形があります。TruthScanはこれらを分析してボイスクローンを検出し、自然な呼吸音の欠如や合成音声にありがちな平坦さを探します。
敵対的攻撃(Adversarial Attack)
画像や音声にごく小さく意図的な変更を加えてAI検出システムを欺くための手法です。攻撃者は知覚できない摂動を加えたり変換を施して検出器を回避しようとします。頑健な検出モデルはそのような回避に耐えるよう訓練されます。
B
瞬き頻度分析(Blink Rate Analysis)
動画で被写体がどのくらいの頻度で、どれほど自然に瞬きするかを監視するフォレンジック手法です。人間には半ば予測可能な生物学的な瞬きのリズムがあります。ディープフェイク、特に古いまたは低品質のものでは、瞬きが少なすぎる、速すぎる、または全くないなどの表示になりがちです。
C
クローン検出(Clone Detection)
同一画像内の別の場所から複製された領域を特定するフォレンジック手法です。検出アルゴリズムはピクセルブロックを比較し、統計的に同一または近似の領域を探します。攻撃者がコンテンツを隠すか改ざんするために領域を複製したことを示します。
コピー・ムーブ偽造(Copy-Move Forgery)
画像のある部分を別の場所にコピーして貼り付けるタイプの画像偽造です。攻撃者はオブジェクトを隠したり要素を複製したり偽のシーンを作るためにコピー・ムーブを使います。フォレンジックツールは統計的に同一のピクセルブロックを見つけて検出します。
コンテンツの出所(Content Provenance)
メディアの起源と編集履歴をたどる情報。C2PA(コンテンツ出所・真正性連合)やCAI(コンテンツ真正性イニシアチブ)などの標準では、暗号署名によりコンテンツがどのように作成・変更されたかを検証できます。
圧縮アーティファクト(Compression Artifacts)
画像や動画を圧縮・解凍するときに生じる歪み(例:JPEG、MPEG)。生成アーティファクトとは異なり、圧縮はブロックノイズ、リング、色の帯状模様などを引き起こします。フォレンジック分析では再圧縮や領域ごとの圧縮の不一致を検出できます。
証拠の連鎖保管(Chain of Custody)
デジタル証拠を誰がいつ扱ったかを記録し、取得から分析まで一貫して完全性を保証する手続きです。フォレンジック調査では、メディアが取得から検出までの間に改ざんされていないことを示すために連鎖保管の維持が重要です。
信頼度スコア(Confidence Score)
コンテンツがAI生成であるというシステムの確信度を示す0〜100%の値です。高いスコア(例:99%)は強い根拠に基づく確定的な検出、中程度(例:55%)は曖昧さやデータ不足を示します。
D
ディープフェイク(Deepfake)
AIを用いて人物の容姿(顔や声)を現実的に差し替えまたは操作したメディア。一般的なAIアートとは異なり、ディープフェイクは実在の個人を模倣し、本人がしなかったことや言っていないことをさせるよう設計されることが多いです。
デジタル操作(Digital Manipulation)
PhotoshopのようなソフトやAIアルゴリズムを使ったメディアファイルのあらゆる改変。明るさ調整のような単純な編集もありますが、フォレンジック上重要なのは、オブジェクトの除去、顔の歪み、偽要素の挿入など文脈や真実性を変える大きな変更です。モデルは照明の不整合、光源と合わない影、複製パターンなどを探します。
拡散パターン(Diffusion Patterns)
Midjourney、DALL-E、Stable Diffusionなど拡散モデルに特有の、微細なノイズ様の質感。これらのモデルはノイズを段階的に精製して画像を生成し、肉眼では見えない格子状の微細パターンを残すことがあり、フォレンジックアルゴリズムで検出可能です。
検出ヒートマップ(Detection Heatmap)
分析画像や動画フレームに色のグラデーションを重ねて表示する可視化ツールです。「偽物」というラベルだけでなく、操作が検出された領域(例:ディープフェイクの顔を赤く、背景を青く)を強調します。
E
ELA(誤差レベル分析 / Error Level Analysis)
画像を既知の品質で再保存し、得られた圧縮を比較するフォレンジック手法です。編集またはAI生成された領域は元画像と異なる誤差レベルを示すことが多く、分析上明るくまたは暗く際立ちます。
EXIF情報(EXIF Information)
画像ファイルにメタデータを格納する標準。デジタルな記録簿のように、カメラのメーカー・モデル、シャッター速度、焦点距離、日付、場合によってはGPS座標を記録します。モデルは、iPhone由来と主張するのにiPhoneが必ず付けるタグが欠けているなどの矛盾を探します。
アンサンブルモデル(Ensemble Model)
複数の異なるAIモデルで同一コンテンツを同時に分析する検出戦略です。TruthScanはアンサンブルで誤りを最小化します。例えばMidjourney専用とPhotoshop編集専用のモデルを組み合わせることで、カバレッジと精度が高まります。
回避手法(Evasion Techniques)
AIコンテンツ検出を避けたり確率を下げたりする方法。画像圧縮、色調整、ノイズ追加、敵対的摂動などがあります。回避を理解することは検出器の頑健性向上に役立ちます。
F
顔モーフィング(Face Morphing)
2枚以上の顔を滑らかにブレンドする技法。身元詐欺や合成ペルソナ作成に使われ、モーフされた顔は認識システムを回避できることがあります。検出では顔のランドマークの不整合やブレンドのアーティファクトを探します。
顔差し替え(Face Swap)
動画や画像である人物の顔を別の顔に置き換えるディープフェイクの一種。全身合成とは異なり、既存の顔を別の身体やシーンに移植します。境界のアーティファクト、照明の不一致、不自然な表情の動きに焦点を当てます。
偽陰性(False Negatives)
AI生成または操作された画像を検出できず、誤って「実写」または「人間作」とラベル付けするエラーです。高度な次世代モデルや、デジタル指紋を隠すために強く圧縮された画像で起こりがちです。
偽陽性(False Positive)
本物の人間が作ったコンテンツを誤ってAI生成と判定するケースです。設計上は最小化されますが、強い圧縮、極端なフィルタ、低解像度ファイルで時折引き起こされます。
G
GAN(生成的敵対ネットワーク)
2つのニューラルネットが競うAIアーキテクチャ:生成器が偽コンテンツを作り、識別器がそれを見つけようとします。初期のディープフェイクや合成画像の多くにGANが使われました。検出モデルはGANが生みやすい特有のアーティファクトを認識するよう訓練されます。
ゴースト / ゴースト画像(Ghosting)
オブジェクトの近くに薄く半透明な二重像や尾のようなものが見える視覚的異常。動く物体や複雑な形状のレンダリングでモデルが失敗するときに起こりがちで、ぼやけた二重露光のような効果になります。
H
ハッシュ化(Hashing)
ファイルに一意の指紋を与えるデジタル手法。画像の1ピクセルでも変わればハッシュ値は完全に変わります。TruthScanはハッシュで、既知のディープフェイクや確認済みのオリジナルと一致するかを確認します。
ハルシネーション(Hallucination)
AIモデルが一見もっともらしいが事実と異なり、矛盾する、または非論理的なディテールを生成するとき。画像では指が余分、あり得ない物体、論理的に破綻した背景などとして現れます。検出では意味的・構造的な不可能性を特定できます。
I
インペインティング(Inpainting)
既存画像の特定部分だけをAIで生成または置換し、周囲は保つプロセスです。検出ツールは、AI生成パッチと元の有機的な写真が接する継ぎ目や統計的不整合を探します。
J
JPEGゴースト(JPEG Ghosts)
画像を異なる品質レベルで何度も保存したときに現れる、かすかで目に見えにくい輪郭。モデルは挿入オブジェクトや操作領域を見つけるために、一致しない圧縮署名を検出します。
K
キーフレーム(Keyframe)
動画ファイル内の完全で独立した1枚の画像。多くのフレームは容量節約のため前フレームからの変化だけを記録しますが、キーフレームは全体像を捉えます。動画の残りでぼかされうる高解像度のアーティファクトをキーフレームで分析します。
L
ライブネス検出(Liveness Detection)
カメラの向こうにその瞬間に実在する生身の人間がいることを確認するセキュリティプロセスです。モデルは心拍に起因する皮膚の赤みや自然な瞬きなど、AI生成器が再現しにくい微小運動を探します。
リップシンクのずれ(Lip-Sync Drift)
口の動きが音声トラックと完全に一致しない動画の時間的アーティファクト。数ミリ秒のずれでも、音声が駆動する生成顔のディープフェイクの強い手がかりになります。
M
メタデータ(Metadata)
デジタルファイルに埋め込まれた「データについてのデータ」。カメラモデル、撮影日、GPS位置などを含みます。AI生成器はこれを削除したり独自タグを入れたりします。フォレンジック分析では、主張される撮影機器と構造が一致するかを調べます。
モデルフィンガープリント(Model Fingerprinting)
どのAIモデルまたは生成器がコンテンツを作ったかを特定するプロセスです。モデルごとに異なる統計的・構造的署名が残ります。フォレンジックツールは、Midjourney、DALL-E、Stable Diffusionなど特定ベンダーへの帰属を推定できることがあります。
N
ニューラルレンダリング(Neural Rendering)
学習表現を用いて画像や動画を合成・操作するAI駆動の手法。ニューラル放射場(NeRF)、ニューラルテクスチャ合成などが含まれます。検出ではこれらの手法が生む特有のアーティファクトを探します。
ノイズ(Noise)
すべてのデジタル写真にあるランダムな粒状の質感。テレビの砂嵐に似ています。実写真ではカメラセンサーの感光に起因し、特定の一様なパターンに従います。モデルはノイズの多い画像に「きれいすぎる」領域や、AI生成に典型的な格子状ノイズを探します。
O
アウトペインティング(Outpainting)
画像の境界を超えて拡張し、広がったキャンバスを新しいコンテンツで埋めるAIプロセス。画像内の穴を埋めるインペインティングとは異なり、周辺にコンテンツを追加します。生成拡張と元のフレームが接する継ぎ目や不整合を検出します。
過度な平滑化(Over-smoothing)
肌や布などの質感が自然なディテールを失いプラスチック状または蝋のような見た目になる視覚的特性。AIは理解しきれない複雑なディテールを平均化しがちで、強くエアブラシしたような肌に見えます。
P
ピクセルレベルの不整合(Pixel-Level Inconsistencies)
肉眼では通常見えない隣接ピクセル間の関係の不規則性。カメラは自然なノイズパターンで画像を作りますが、AI生成器は自然な光学撮影とは異なる数学的精度や統計的指紋でピクセルを並べることがあります。
Q
量子化テーブル(Quantization Tables)
カメラやソフトウェアが画像を圧縮する際の具体的な数学的レシピ。Nikonカメラ由来と主張する画像がAdobe Photoshopの量子化テーブルを使っている場合、撮影後に編集または生成された強い手がかりになります。
R
再撮影攻撃(Recapture Attack)
ディープフェイクまたは静止画を画面に表示し、別のカメラでその画面を撮影する不正手法。モデルはモアレ、画面の映り込み、モニタのピクセル格子などを探します。
S
スタイル転送(Style Transfer)
ある画像(例:絵画)の視覚スタイルを別の画像の内容に適用するAI技法。芸術効果に使われる一方、操作を隠すことにも使えます。検出では不自然なスタイル境界やスタイル転送モデルの統計的指紋を特定できます。
スプライシング(Splicing)
異なるソース画像の領域を1枚の合成に結合する画像偽造。コンポジットや切り貼りとも呼ばれます。スプライス領域間の照明、遠近法、質感の不一致を探します。
ソース帰属(Source Attribution)
どのデバイス、ソフトウェア、またはAIモデルがコンテンツを生成したかを特定すること。メタデータ、圧縮の指紋、モデル固有のアーティファクトの分析が含まれます。真正性の検証と操作の追跡に役立ちます。
鏡面ハイライト(Specular Highlights)
光沢のある表面、特に被写体の目に見える光源の反射。実写真では反射の形と位置が環境(例:四角い窓)と一致します。AIはしばしば誤って描き、不一致や幾何学的にあり得ない反射を生みます。
合成ペルソナ(Synthetic Persona)
顔とプロフィールを含む、AIだけで作られた写真のようにリアルなデジタル身元。実在人物を模すディープフェイクとは異なり、合成ペルソナは特定の人間に対応しません。SNSボットや詐欺で検出しにくいプロフィールを作るのに使われます。
T
TTS(テキスト読み上げ)
書かれたテキストを合成音声に変換する技術。ボイスクローンが特定個人を模すのに対し、一般的なTTSは一から新しい声を作ります。どちらも合成音声に使えます。検出ではロボット的な抑揚、不自然な間、周波数のアーティファクトを探します。
テクスチャ(Texture)
画像内の物体の表面質感と微細ディテール。毛穴、布の織り目、紙の目、一本一本の髪の毛など。モデルは不自然な滑らかさやプラスチックのような表面を探します。AIはしばしばこれらの複雑なディテールを均してしまいます。
改ざん(Tampering)
視聴者を欺くためのデジタルメディアの意図的な変更。デジタル操作より広い概念で、現実を歪める目的のあらゆる変更—画像のスプライスからメタデータの改変まで—を含みます。検出システムは改ざんの痕跡を見つけるよう設計されています。
時間的アーティファクト(Temporal Artifacts)
単一フレームではなく時間経過とともに現れる視覚的不整合。AI動画では、肌の色調、眼鏡、背景テクスチャなどがフレーム間でちらつき、振動、不自然なずれを起こし、時間的一貫性の維持にAIが苦戦していることを示します。
U
アップスケーリング・アーティファクト(Upscaling Artifacts)
ぼやけた小さな画像の解像度を上げようとするときにAIが導入する歪み。鋭いまつげの横にぼやけた毛穴があるなど、低品質オリジナル上でAIが幻覚のようなディテールを付け足したことを示す矛盾したディテールをモデルは探します。
V
ボイスクローン(Voice Cloning)
特定人物の口調、アクセント、語りのリズムを模倣する合成音声をAIで生成すること。モデルは人間の声帯では作れない呼吸パターンのロボット的アーティファクトや周波数ギャップを探します。
ボイスプリント(Voiceprint)
声の固有特性から得られる生体識別子—音響フィンガープリントに似ています。認証や、既知の声を装う合成音声の検出に使えます。
X
XMPメタデータ(XMP Metadata)
拡張メタデータプラットフォーム。Adobeなどの編集ソフトが画像ファイル内に履歴ログを保存するために使う標準です。メインのEXIFが消去されていても「Stable Diffusionで作成」などの編集履歴の痕跡をモデルは探します。
Y
Yチャネル分析(Y-Channel Analysis)
画像の輝度(明るさ)レイヤーを色から分離して分析すること。AIは色は合わせても照明の物理を誤ることがあります。色を除いてグレースケールのYチャネルだけを見ると、照明の不整合がはるかに明瞭になります。
Z
ゼロショット検出(Zero-Shot Detection)
検出モデルが、訓練で一度も見たことのない新しいAI生成器の偽物を識別する能力。モデルは、誰が構築したかに関わらず現在のAIが犯しがちな普遍的な誤り—照明の物理違反など—を探します。
#
透かし(デジタル透かし)
責任あるAI生成器(GoogleのSynthIDなど)がAI作成であることを示すためにメディアに埋め込む目に見えない信号。TruthScanは画像がAI生成であることを確認する、ベンダー固有の隠れた署名をスキャンします。