⚠️ この記事は、AIを悪用した非合意ポルノ(NCII)問題を告発・警告する目的で作成しています。不適切なコンテンツの利用・拡散を推奨するものではありません。
「App Store」や「Google Play」で、AIを使って他人の写真をヌードに加工できる「Nudify(ヌード化)アプリ」が堂々と配布されている──そんな衝撃的な調査結果が、IT業界の監視団体「Tech Transparency Project(TTP)」によって公開されました。さらに問題なのは、アプリストアの検索機能や広告システムそのものが、ユーザーをこれらのアプリへ積極的に誘導しているという事実です。
📊 調査が明らかにした衝撃の実態
2026年4月15日に公開されたTTPのレポートは、以下のような手法で調査が行われました。iPhoneとAndroid端末に新規アカウントを作成し、「nudify」「undress(脱がせる)」「deepfake」「deepnude」「adult AI」「face swap」「AI NSFW」といった検索ワードでApp StoreおよびGoogle Playを検索。上位10件のアプリをダウンロードし、実際に動作を確認しています。
ヌード化機能アプリの割合
特に深刻なのは、検索結果に出てきたアプリのうち約40%が実際にヌード化・脱衣加工ができると確認された点です。Apple App Storeで46本中18本(39.1%)、Google Playで49本中20本(40.8%)が該当しました。
🔍 アプリストアがユーザーを誘導する3つの仕組み
単にアプリが存在するだけでなく、プラットフォーム自身の仕組みがユーザーをヌード化アプリへ導いている実態がわかりました。TTPは以下の3つのルートを特定しています。
| 誘導経路 | 具体的な内容 |
| ① 検索結果 | 「nudify」「undress」「deepnude」などのキーワードで検索すると、ヌード化アプリが上位に表示される |
| ② 広告(スポンサード) | Appleの3件の検索で、ヌード化アプリの広告が最上位に表示。GoogleはNSFW系検索で多数のアダルトアプリ広告カルーセルを表示 |
| ③ 検索補完(オートコンプリート) | 入力中に「image to video ai nsfw」「nudie video apps」などの関連ワードが自動提案され、さらに多くのヌード化アプリへ誘導される |
Appleは「過度に性的またはポルノ的なコンテンツ」を含むアプリを禁止しています。Google Playも「人を脱がせたり透かして見せることを主張するアプリ」を明示的に禁止しています。しかし今回の調査で、両社がその禁止ポリシーに反するアプリの広告を自ら配信していたことが判明しました。
⚠️ これらのアプリが引き起こす深刻な被害
「Nudifyアプリ」の問題は、単なる不快コンテンツにとどまりません。現実の被害に直結する複数の深刻なリスクがあります。
🚫 非合意ポルノ(NCII)の生成・拡散
クラスメート、同僚、有名人など実在する人物の写真をAIでヌードに加工し、ネット上に拡散。当事者の同意なく性的画像を作られる「リベンジポルノ」の進化版であり、精神的被害は計り知れない。
👧 学校現場での性的ディープフェイク問題
問題のアプリ31本が「未成年者向け」評価で配布されていた。国内外で学校内での生徒間ディープフェイク被害が急増しており、被害者の多くは10代の女性。
🇨🇳 中国系アプリによる個人情報・画像の漏洩リスク
調査で特定されたアプリの多くが、中国・香港・ベトナムなどの企業が開発元。中国の国家安全保障法により、政府がユーザーのヌード加工画像へアクセスできる可能性がある、とFBIも警告している。
💰 アプリストアの収益構造が問題を放置させている
AppleとGoogleは、広告料とアプリ内課金のマージンからヌード化アプリの収益に直接関与している。TTPはこの収益構造が、ポリシー違反への対処を緩慢にさせる誘因になっていると指摘。
🏢 AppleとGoogleの対応は十分か?
TTPがレポートを公開し、Bloomberg NewsやCNBCなどのメディアと情報共有した結果、各社は一定の対応をとりましたが、その動きは限定的なものにとどまっています。
| 項目 | 🍎 Apple | |
| 今回の削除対応 | 15本削除 | 7本削除・対処継続中 |
| メディアへのコメント | コメント拒否 | 「報告があれば調査・対処」と声明 |
| 年齢制限の責任 | Apple自身が審査 | IARC(外部機関)が設定と主張 |
| 根本的な問題への対応 | 未対応 | 未対応 |
問題の核心は、個別アプリの削除よりも「なぜポリシー違反アプリが審査を通過するのか」「なぜアルゴリズムがこれらのアプリを推薦するのか」という構造的な問いにあります。両社とも、この根本的な問いに答えていません。
💬 TTPの結論(原文より要約)
「AppleとGoogleはヌード化アプリに対して中立的なプラットフォームではない。検索・広告システムがこれらのアプリを積極的に露出させており、両社はアプリの広告収益やサブスクリプション手数料から直接利益を得ている。これが、ポリシー違反への対処を鈍らせる誘因になっている」
🛡️ 子どもをヌード化アプリから守るための対策
プラットフォームの対応を待つだけでなく、保護者側でできる具体的な対策を実施することが重要です。
① Appleデバイス(iPhone / iPad)の場合
スクリーンタイムによるアプリインストール制限
設定 →「スクリーンタイム」→「コンテンツとプライバシーの制限」を有効化 → 「iTunesおよびApp Storeでの購入」→「App のインストール」を「許可しない」または「12歳以下のみ許可」に設定。さらに「コンテンツの制限」→「App」で年齢制限を「12歳以下」に設定することで、成人向けアプリのダウンロードを防止できます。
ファミリー共有の活用
「設定」→ ご自身の名前 →「ファミリー共有」でお子様のApple IDを管理。13歳未満の子どものアカウントは「Apple IDを子ども用に作成」で作成すると、保護者の承認なしにアプリをインストールできない「Ask to Buy」が自動適用されます。
② Androidデバイスの場合
Google Playのペアレンタルコントロール
Google Playアプリ → 右上のアイコン →「設定」→「ファミリー」→「ペアレンタルコントロール」を有効化。アプリの年齢制限を設定し、変更にはPINが必要になります。
Googleファミリーリンクの活用
13歳未満のお子様には「Google ファミリーリンク」アプリで子どもアカウントを管理。アプリの承認・拒否、使用時間の制限、位置情報の確認などが可能です。
③ 家庭でできる教育・コミュニケーション
- 他人の写真を無断でアプリにアップロードしてはいけない理由を、具体的に説明する
- 「楽しそうなアプリだから」とダウンロードする前に保護者に相談するよう習慣づける
- クラスメートの画像が使われた場合の法的・社会的責任について話し合う
- 被害を受けた場合は、すぐに保護者・学校・警察に相談するよう伝える
- 日本では「性的姿態撮影等処罰法」によりディープフェイクポルノの作成・拡散が刑事罰の対象になることを伝える
⚖️ 日本における法的対応と現状
日本でも2023年に「性的姿態撮影等処罰法」が施行され、本人の同意なく性的な画像を作成・提供・拡散した場合、最大3年の懲役または300万円以下の罰金が科されます。AIで生成したディープフェイク画像も対象です。
しかし、アプリのサーバーが海外にある場合の国際的な法執行は困難なケースも多く、プラットフォーム側の自主的な規制と、利用者側の教育・啓発がより重要な役割を担っています。
📞 被害相談窓口
・警察相談専用電話:#9110
・法務省「みんなの人権110番」:0570-003-110
・都道府県のサイバー犯罪相談窓口(各都道府県警察本部)
・違法・有害情報相談センター(総務省)
📝 まとめ
TTPの調査が明らかにしたのは、「不正アプリが一部紛れ込んでいる」という話ではなく、AppleとGoogleのアプリストアのアルゴリズムと広告システムそのものが、ヌード化アプリの流通を支えているという構造的な問題です。
両社は個別のアプリ削除には応じましたが、根本的な仕組みの改善については、報告時点でいずれも明確な回答を示していません。
私たちユーザー、そして保護者としてできることは、プラットフォームへの圧力を高めつつ、子どもたちへの教育と端末設定による防御ラインを確実に構築することです。テクノロジーの進化に法律や企業の倫理が追いつくまでの間、最後に子どもを守るのは私たち自身です。
参考:Tech Transparency Project「Apple and Google Are Steering Users to Nudify Apps」(2026年4月15日公開)、9to5Mac、Apple Insider各報道をもとに編集部が作成