「AIで服を脱がせたように見える画像が、本人の同意なく作れてしまう」
そんな悪用が、Xに統合されたAI「Grok」をきっかけに一気に可視化されました。問題は“技術の新しさ”だけではありません。
被害が出た後の削除、プラットフォームの責任、未成年の保護、そして「写真の同意はどこまで必要か」という社会のルール作りそのものが問われています。
いま世界では、実際に“規制”が動き始めています。
目次
Grokで実際に何が起きたのか:炎上の中心は「非同意の性的画像」
今回の焦点は、いわゆる**“ヌーディファイ(nudify)”や“性的ディープフェイク”**と呼ばれるタイプの画像です。現実に存在する人物の写真を材料にして、本人が裸になったように見える、あるいは性的な文脈に置かれた画像を作る。しかも、本人の同意がないまま生成・投稿・拡散される——これが「画像ベースの性加害(image-based sexual abuse)」として各国で問題視されています。
報道では、Grokが「服を脱がせる」方向の編集リクエストに応じ、女性や未成年に見える対象まで含んだ“性的に加工された画像”がX上に大量に出回った、とされています。
重要なのは、ここで争点になっているのが「アダルト表現」一般ではなく、“本人の同意がない性的画像”、さらに未成年が関わる可能性です。これらは多くの国で、表現の自由とは別枠で、明確に違法・有害として扱われます。
何が規制の対象なのか:世界が狙い撃ちする“3つの論点”
各国の対応を整理すると、規制・捜査・削除要請の中心は、だいたい次の3領域に集約されます。
非同意の性的画像(NCII:Non-Consensual Intimate Images)
本人の同意なく、性的な画像(本物でもAIでも)を作ったり、投稿したり、脅しに使ったりする行為です。米国ではこの領域に対して、被害者救済・削除義務を強める法律が整備されています。
未成年に関する性的画像(児童性的虐待コンテンツ:CSAM等)
未成年が対象の性的画像は、多くの国で“極めて重い違法領域”です。作ること・持つこと・共有すること自体が犯罪になる国が多く、AI生成であっても例外にしない方向が強いです(英国の警察情報でも、ディープフェイクでも違法になり得ることが明示されています)。
プラットフォームの安全義務(削除・拡散防止・記録保全)
「作った個人」だけでなく、拡散の場になったプラットフォームが何をするべきか。ここが今回、Grokが“Xに統合されている”ことの重みです。EUはDSA(デジタルサービス法)の枠組みで、Xに対してGrok関連の内部データ保全などを求める動きを見せています。
米国:被害者救済の「法整備」を前に進める
米国では、非同意の性的画像を「削除させる」「責任を問う」方向の立法が進んでいます。代表例がTAKE IT DOWN Actで、非同意の性的画像(AI生成を含む)への対応を強め、被害者の申告を受けてプラットフォームに迅速な削除プロセスを求める趣旨が示されています。
さらに直近では、DEFIANCE Actのように、非同意ディープフェイクの被害者が“作成者”に対して民事で責任追及しやすくする動きも報じられています。
米国は「言論の自由」とのバランスが常に争点になりますが、それでも“非同意の性的加害”は別枠で締める、という方向性がはっきりしてきました。

欧州:DSA(巨大プラットフォーム規制)で「X側の責任」を問う
EUは、個別の刑罰だけでなく、巨大プラットフォームに安全対策を求めるのが強みです。Grok問題では、EU当局が“子どもを含む性的に加工された画像”が出回ることを深刻視し、Xに対して対応を求める姿勢が伝えられています。
国単位でも動きが出ています。たとえばスペインは、AIディープフェイクや画像利用の同意ルールを強める法案を進めていると報じられました。
EU全体としては「放置したプラットフォームが責任を免れない」方向に制度が寄っていくのが、今後の大きな流れになりそうです。
英国:ヌーディファイ/性的ディープフェイクの“作成”そのものを犯罪へ、調査も開始
英国は、オンライン安全を軸に「作る行為」「流通させる行為」の双方を締める方向を強めています。政府声明では、非同意の性的画像の作成(あるいは作成依頼)を犯罪とし、オンライン安全法制の中で優先的に取り締まる趣旨が示されています。
また規制当局Ofcomが、X上でのGrok悪用(非同意の性的画像や未成年に関する問題)について調査に入ったと報じられています。
英国は「プラットフォームが“後追い削除”だけで済ませるな」という圧力が強く、ここは他国にも波及しやすいポイントです。
アジア:ブロックや法的措置など、即効性の高い対応が目立つ
アジアでは、アクセス遮断・法的措置といった“即効性のある手段”が目立ちます。
インドネシア:Grokへのアクセス遮断
インドネシアは、Grokを巡る性的ディープフェイク問題を理由に、アクセス遮断に踏み切ったと報じられています。
マレーシア:XとxAIに法的措置
マレーシア当局は、Grokの悪用による性的・非同意の画像(未成年を含む可能性)などを問題視し、XとxAIに対して法的措置を取る方針が報じられました。
インド:当局がXに通知・対応要求
インドでも、Grokが“わいせつ・性的に露骨なコンテンツ”に悪用されているとして、当局がXに対して対応を求めたと報じられています。
アジアの特徴は、社会規範(特にポルノ規制)と結びつき、**「危険なら止める」**が早い点です。一方で、どこまでが“性的加害の対策”で、どこからが“広い検閲”なのか、という議論も同時に起きやすい地域でもあります。
日本では問題になっていないのか?:表面化しにくいが、被害と制度の芽はすでにある
結論から言うと、日本でも「問題になっていない」わけではありません。むしろ、被害は先に出ていて、制度が追いかけている段階に見えます。
象徴的なのが、地方自治体による対応です。鳥取県では性的ディープフェイクを規制する条例の動きが報じられ、社会として“実害”を前提に議論が進んでいます。
また、警察が未成年の性的ディープフェイク被害について情報を公表し、加害側が「同級生など身近な関係」であるケースが含まれることも伝えられています。
日本の場合、AIそのものを包括規制するより先に、名誉毀損・わいせつ・リベンジポルノ的な枠組み、あるいは条例などで部分対応が積み上がりやすい構造があります。そのため、海外のように「Grokを止める」「プラットフォームに罰金」といった大きな動きとしては見えにくい反面、被害は“静かに積もる”リスクが高い。ここが一番の怖さです。
これから何が起きるか:規制は「AIそのもの」より“同意”と“流通責任”へ
Grok問題で見えてきたのは、各国がAIを一律に禁止したいわけではなく、争点がかなり具体的だということです。つまり、本人の同意がない性的画像、未成年の保護、そして拡散を止めるプラットフォーム責任。この3点が揃った瞬間に、規制は一気に強くなります。
日本でも、海外サービスが日常的に使われる以上、「国内で大炎上してから議論」では遅れが出ます。SNS運営・AI提供者・広告主・アプリストア・行政がどの線で連携するのか。2026年は、その“運用の現実”が問われる年になるはずです。