hentai-pedia

PV

ディープフェイク

deiipufueiku

2017 年 12 月、米国の掲示板サイト Reddit に「deepfakes」と名乗る匿名ユーザーが、機械学習で女優の顔を既存のアダルト動画に合成した映像を投稿した。これが「ディープフェイク」という語の公的な初出であり、同時に技術が当初から非合意の性的画像生成と不可分に登場したことを示す象徴的事件であった。以後 10 年、合成メディア技術は急速に高度化したが、その被害の中心は一貫して女性・未成年者の性的搾取に置かれてきた。

ディープフェイク(英 deepfake)とは、深層学習(deep learning)に基づく合成メディア技術、ならびに当該技術を用いて生成された画像・音声・映像を総称する語である。「deep learning」と「fake」の混成語であり、敵対的生成ネットワーク(generative adversarial network, GAN)、変分オートエンコーダ(variational autoencoder, VAE)、拡散モデル(diffusion model)等を用いて、実在人物の顔・声・身体を別の映像に合成する。本項では当該技術の歴史、社会的影響、特に非合意の性的画像生成に関する国際的な人権問題、各国の規制動向、検出技術、被害者支援を扱う。なお本項は技術的解説を目的とせず、社会的・法的論点を中心に記述する。

用語と定義

語源

「deepfake」の語は、2017 年に Reddit のユーザー名「deepfakes」が r/deepfakes サブレディットを開設したことに由来する。同サブレディットは女優の顔を無断で性的映像に合成した投稿が中心であったため、技術名と非合意ポルノ生成は当初から結びついていた。Reddit 運営は 2018 年 2 月に同サブレディットを「非合意ポルノ」ポリシー違反として閉鎖したが、語は既に技術用語として定着していた。

学術的呼称

学術文献では「synthetic media」「AI-generated media」「facial reenactment」等のより中立的な呼称も併用される。被害類型に焦点を当てる場合、英語圏では「non-consensual intimate imagery」(NCII)、「image-based sexual abuse」(IBSA)、「deepfake-NCII」等の語が、Clare McGlynn、Erika Rackley らフェミニスト法学者によって整理されてきた。

「フェイクポルノ」

日本語圏では「フェイクポルノ」「アイコラ」(アイドル・コラージュの略)等の俗称があるが、これらは画像合成一般を指す広義語であり、ディープフェイクは深層学習を用いた高品質合成という技術的下位概念に位置づけられる。

歴史

前史

実在人物の顔を性的画像に合成する行為自体は、写真の合成(フォトモンタージュ)として 19 世紀から存在する。1990 年代以降は Photoshop による「アイコラ」が日本のインターネット文化で広く流通した。深層学習以前の合成は手作業に依存し、品質と量産性に限界があった。

2014 年: GAN の登場

2014 年、Ian Goodfellow らが敵対的生成ネットワーク(GAN)を発表した。生成器と識別器の二つのネットワークを敵対的に学習させることで、現実的な画像を生成する手法は、合成メディアの技術的基盤となった。

2017–2018 年: deepfake の登場と拡散

2017 年 12 月、Reddit に「deepfakes」ユーザーが現れ、オートエンコーダを用いた顔交換手法による合成動画を公開した。標的とされた俳優にはガル・ガドット、エマ・ワトソン、スカーレット・ヨハンソン等が含まれた。2018 年 1 月には GUI ツール「FakeApp」が公開され、技術が一般ユーザーに開放された。同月、Reddit、Twitter、Pornhub 等の主要プラットフォームが相次いで非合意ディープフェイクを禁止するポリシーを発表したが、専用の地下サイトは増殖を続けた。

2019–2022 年: 量的拡大

Deeptrace Labs(現 Sensity)の 2019 年調査要出典は、当時オンラインで確認されたディープフェイク動画の約 96% が非合意ポルノであり、被害者はほぼすべて女性であると報告した。2020 年には Telegram 上で女性の写真から擬似ヌード画像を自動生成する「DeepNude」型のボットが発見され、欧州・東南アジアを中心に数十万人の被害者が確認された。

2023 年以降: 拡散モデルと音声合成

Stable Diffusion 等の拡散モデルが 2022 年に一般公開され、テキストから画像を生成する技術が普及した。これにより専門家でなくとも実在人物の合成画像を作成可能となり、有名人・一般人を問わず被害が拡大した。2024 年初頭にはテイラー・スウィフトの非合意ディープフェイク画像が X(旧 Twitter)上で拡散し、同社が一時的に検索を停止する事態に至った。同事件は世界的な規制議論の加速点となった。

技術概要

本項では技術詳細・実装方法は扱わない。社会的論点の理解に必要な範囲で枠組みのみ記す。

主要手法

  • オートエンコーダ型顔交換(2017–2019 年期の主流): 二人の顔画像を共通の潜在空間に圧縮し、復元時に入れ替える手法。FakeApp、DeepFaceLab 等が用いた。
  • GAN 型合成: StyleGAN(NVIDIA, 2018)等により高解像度の人物像合成が可能となった。
  • 拡散モデル: Stable Diffusion、DALL-E 等。テキスト記述または参照画像から画像を生成する。微調整(fine-tuning)技術 LoRA を用いて特定人物の合成精度を高める手法が問題化した。
  • 音声合成: WaveNet(2016)以降、深層学習による音声複製が高度化した。数秒の音源から本人類似の音声を合成可能な「voice cloning」技術が 2023 年頃から一般化した。

検出技術

合成検出は「アームズ・レース」(arms race)の構造にあり、生成側と検出側が技術的に競合する状態が続く要出典。検出手法は瞬きの不自然さ、顔の境界の歪み、生体信号(脈拍に伴う皮膚色変動)の欠如、生成器特有のアーチファクト等を特徴量とする。Microsoft Video Authenticator(2020)、Intel FakeCatcher(2022)等が公的に発表されているが、最新の合成手法には対応が遅れる構造的限界がある。

来歴記録(provenance)

検出に代えて、コンテンツの真正性を能動的に証明する枠組みとして C2PA(Coalition for Content Provenance and Authenticity)が 2021 年に発足した。Adobe、Microsoft、BBC 等が参加し、撮影機材から編集履歴までを暗号署名で記録する標準を策定している。

非合意ディープフェイクの問題

ディープフェイクをめぐる最大の社会問題は、非合意の性的画像生成・流通である。本項は当該行為を深刻な人権侵害として扱う。

被害規模

Home Security Heroes の 2023 年調査によれば、オンライン上で確認されたディープフェイク動画の 98% が性的内容であり、その 99% の被害者が女性である。前年比で動画数は 5 倍に増加した。被害者には著名人のみならず、SNS に写真を公開した一般女性、未成年者を含む。

韓国「N 番部屋」関連事案

韓国では 2019–2020 年の N 番部屋事件(Telegram 上で性的搾取コンテンツを売買した組織犯罪)以降も、合成画像による性的搾取が深刻化した。2024 年には大学・高校の名簿を用いて女子学生の合成裸像を生成・流通させる Telegram グループが多数摘発され、文在寅政権・尹錫悦政権を通じて社会問題化した。同年韓国国会は性暴力犯罪処罰法を改正し、ディープフェイク所持・閲覧自体を犯罪化する厳格な立法に踏み切った。

一般人被害

被害は著名人に限定されない。学校の同級生、職場の同僚、見知らぬ通行人の写真を素材とする合成は、学齢期の生徒を含む一般人に拡大している。米国の高校・中学校で同級生の合成裸像が拡散する事案が 2023 年以降複数報告され、教育現場の対応が課題となった。

児童被害

児童ポルノに該当する合成画像は、本物の児童の身体画像を含まない場合でも、多くの法域で児童ポルノ法の規制対象となる(後述)。また、実在の児童の顔を素材とする合成は、二重の人権侵害を構成する。

規制動向

米国

連邦法レベルでは長らく明示的な合成画像規制が欠落していたが、2024 年に DEFIANCE Act(Disrupt Explicit Forged Images and Non-Consensual Edits Act)が連邦議会に提出され、被害者による民事提訴を可能とする方向で議論が進んだ。州法レベルでは 2019 年バージニア州法を皮切りに、テキサス、カリフォルニア、ニューヨーク等が非合意ディープフェイクを刑事罰の対象とする立法を相次いで制定した。2024 年時点で 20 を超える州が何らかの規制を有する。

英国

英国は 2023 年制定の Online Safety Act(2023 年法律第 50 章)により、非合意ディープフェイクを含む親密画像の同意なき共有・脅迫を犯罪化した。2024 年改正案では生成行為自体の犯罪化(criminalisation of creation, not just sharing)が議論された。

欧州連合

EU は 2024 年成立の AI Act(Regulation 2024/1689)第 50 条において、合成メディアに対する透明性義務(deepfake であることの明示)を規定した。AI Act は包括的 AI 規制の枠組みであり、ディープフェイクに特化した刑事規制は加盟国法に委ねられる。ドイツは刑法典第 201a 条改正により合成親密画像の流布を犯罪化、フランスはデジタル空間規律法(Loi SREN, 2024)で同様の規制を導入した。

韓国

韓国は前述のとおり 2024 年改正で、所持・閲覧を含む厳格な刑事規制を導入した。法定刑は最大 7 年の懲役であり、国際的に最も厳格な規制の一つとなった。

日本

日本では現行法上、ディープフェイクに直接対応する一般法は存在しない。ただし以下の現行法により、個別事案の処罰・救済が試みられている。

  • 名誉毀損罪・侮辱罪(刑法 230 条・231 条): 合成画像による人格侵害として処罰可能。
  • わいせつ物頒布等罪(刑法 175 条): 合成画像も「わいせつ物」に該当しうる。2020 年 10 月、名古屋・東京の地裁で芸能人の顔をアダルト動画に合成した男性が、本罪と名誉毀損罪で有罪判決を受けた事案が初の摘発例である要出典
  • 児童ポルノ法: 児童の姿態を表現した合成画像は、実在児童を素材としない場合でも児童ポルノ法第 2 条 3 項の解釈を要する論点となる。
  • リベンジポルノ防止法: 私事性的画像記録は撮影対象者本人の姿態を要件とするため、合成画像への直接適用は解釈上困難である。

総務省・法務省では 2023 年以降、合成親密画像の規制について検討会・有識者会議が継続的に開催されている。立法段階では、特別法による包括規制と既存法の改正による個別対応のいずれを採るかが論点である要出典

被害者支援

削除請求

被害者の救済は技術的・法的に困難を伴う。プラットフォーム事業者(Google、Meta、X 等)はディープフェイク含む非合意親密画像の削除手続を整備しているが、ミラーリング(複製拡散)により完全な削除は不可能に近い。

ハッシュ共有データベース

英国の StopNCII.org(2021 年開設)は、被害者が画像のハッシュ値のみを登録することで、複数のプラットフォームが当該ハッシュに基づき自動削除できる仕組みを提供している。Meta、TikTok、Bumble 等の主要事業者が参加する。

心理的影響

被害は二次被害(セカンドハラスメント)を伴いやすく、被害者の精神健康への影響は深刻である。学術研究は外傷後ストレス障害(PTSD)に類似する症状、自殺念慮の増加を報告している。被害者支援団体(全国 Stop NCII ネットワーク等)は心理ケアと法的支援の併設を提唱する。

倫理論争

表現の自由との緊張

合成画像規制は表現の自由との緊張関係を持つ。風刺・芸術・教育目的の合成と、人権侵害的な合成をいかに線引きするかは、各国法制で議論される論点である。米国第一修正法理は表現規制に厳格な審査を求めるため、連邦規制の整備が遅れた一因となった。

同意なき類似性の使用

被害が「実在の身体」を含まない場合でも、同意なき類似性(likeness)の性的使用が人格権侵害を構成しうるかは、日本のパブリシティ権・米国のright of publicity 等の法理を経由して議論される。学術的には「合成は本人を侵害しうるか」という形而上学的問いも提起されている。

技術中立性の限界

「技術自体は中立であり、悪用が問題」という言説は、ディープフェイクに関しては当初から技術と非合意ポルノが不可分に登場した経緯を踏まえ、批判の対象となっている要出典。技術設計段階での倫理的考慮(safety by design)、研究公開の制限といった議論が継続している。

プラットフォーム責任

合成生成 AI を提供する事業者の責任、合成画像を流通させるプラットフォームの責任、生成モデルの学習データ提供の責任といった重層的な責任配分が、今後の規制の中心的論点となる。

関連項目

参考文献

  1. Ajder, Henry; Patrini, Giorgio; Cavalli, Francesco; Cullen, Laurence 『The State of Deepfakes: Landscape, Threats, and Impact』 Deeptrace Labs (2019) https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
  2. Home Security Heroes 『2023 State of Deepfakes Report』 Home Security Heroes (2023) https://www.homesecurityheroes.com/state-of-deepfakes/
  3. Mirsky, Yisroel; Lee, Wenke 『Deepfakes and the New AI-Generated Fake Media Creation-Detection Arms Race』 ACM Computing Surveys (2021)
  4. Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; et al. 『Generative Adversarial Networks』 Advances in Neural Information Processing Systems (2014) https://arxiv.org/abs/1406.2661
  5. 『Online Safety Act 2023』 UK Public General Acts (2023) https://www.legislation.gov.uk/ukpga/2023/50
  6. 『Regulation (EU) 2024/1689 (Artificial Intelligence Act)』 Official Journal of the European Union (2024) https://eur-lex.europa.eu/eli/reg/2024/1689/oj
  7. McGlynn, Clare; Rackley, Erika; Houghton, Ruth 『Image-Based Sexual Abuse: A Study on the Causes and Consequences of Non-Consensual Nude or Sexual Imagery』 Feminist Legal Studies (2017)
  8. 成原慧 『性的ディープフェイクの規制に関する一考察』 情報通信政策研究 (2022)

別名

  • deepfake
  • フェイクポルノ
  • 非合意ディープフェイク
  • synthetic media
  • non-consensual deepfake
続けて読まれたエロ単語 Ero Words

アダルトアニメ あだるとあにめ / adarutoanime

エロ作品

アダルトゲーム あだるとげーむ / adarutogeemu

エロ作品

AI 生成エロ えーあいせいせいえろ / eeaiseiseiero

エロ作品

美少女ゲーム びしょうじょげーむ / bishoujogeemu

エロ作品

ボーイズラブ ぼーいずらぶ / booizurabu

エロ作品