生成AI「Grok」の画像編集機能で非同意のAIディープフェイクが急増
2025年12月下旬、X(旧Twitter)に実装された生成AI「Grok」の画像編集機能が、世界的な批判を呼ぶ事件を引き起こしました。@Grokへのリプライや引用で簡単に指示を送るだけで、実在人物の写真を性的に加工できるAIディープフェイクが生成されるようになったのです。
「ビキニにして」「服を脱がせて」といった指示により、ユーザーが非同意で実在人物を対象にした性的画像を生成、SNS上に多数投稿されました。これにより、プライバシー侵害やデジタル性的暴力の問題が深刻化しています。
非同意のAIディープフェイクはいつから起きたのか
Grokの画像編集機能は2025年12月24日ごろに一般向け提供され、直後から実在人物への非同意AIディープフェイクが急増。SNS上の投稿例は数千件に達し、研究者の分析によれば、ユーザー間で共有された高度なプロンプト技術により、生成AIによる性的加工リクエストが短期間で拡散しました。
何が起きたのか
Grokの画像編集機能は、写真に指示を与えるだけでAIが即座に画像を生成・加工する仕組みです。特に問題なのは、スマホやPCで指先ひとつ動かすだけで、実在人物の写真を性的に改変するAIディープフェイクが作れてしまう点です。わずかな操作で投稿から拡散までが瞬時に完了するため、被害の規模とスピードが異常に大きくなっています。
悪用により以下のようなケースが発生しました:
- 実在のモデル・コスプレイヤー・有名人・一般人の写真が対象に。
- 未成年に見える人物も含まれ、児童保護の観点で大きな批判。
- 生成されたAIディープフェイクは瞬時に拡散し、削除してもスクリーンショットとして残る。
この「手軽さ」が、単なるネット上の“いたずら”では済まされない、デジタル性的暴力・非同意画像生成の温床となっています。
被害者への影響
- 同意なく性的に加工された画像が拡散され、心理的負担が大きい。
- 日常写真がAIディープフェイクで性的文脈に改変され、精神的苦痛が長期化。
- 社会的評価の低下、職場や家庭でのトラブルに発展するケースも。
- 拡散後は削除しても痕跡が残り、永続的なリスクが存在。

加工者が直面する法的リスク
- プライバシー侵害・名誉毀損:本人の同意なく画像を加工・投稿すると損害賠償対象に。
- 児童ポルノ法違反:未成年に見える人物の画像生成・配布は刑事責任。
- 拡散されたAIディープフェイクは証拠として残り、民事・刑事両面でリスク。
世界的な批判と規制の動き
- イギリス:Ofcomによる調査開始
- マレーシア・インドネシア:一時アクセス停止
- 市民団体:「Get Grok Gone」キャンペーン展開
- カリフォルニア州:法的追及の報告
プラットフォーム側の対応と限界
- 実在人物の性的AIディープフェイク生成を技術的にブロック
- 画像編集機能を有料会員限定にし、不正利用者の特定を容易に
- 違反コンテンツ削除・アカウント停止・法執行機関との連携を強化
しかし、外部ウェブ版や独立Grokアプリでは制限が不十分で、悪用が続く懸念があります。
今後の課題と安全な楽しみ方
- 生成AI時代における同意と尊厳の確保が急務
- 技術提供者側の安全設計・検証・透明性の担保が不可欠
- 趣味で楽しむ場合は合意のある相手・安全なコミュニティ利用が前提
Grok炎上は、AIディープフェイク時代における非同意画像生成の危険性と法的・倫理的課題を改めて示しています。
安全に趣味を楽しむために
Grokの件は、他人の画像を軽い気持ちで加工することがどれほど危険かを示しました。一方で、SMやフェティッシュなど趣味を楽しむ場合は、安全な方法があります。
- 合意のある相手と楽しむ:パートナーや同意済みの参加者だけで楽しむことが前提。
- 専門コミュニティや安全なサイトを利用:匿名性や年齢確認が徹底されたオンラインコミュニティなら、法的リスクを避けながら趣味を満喫可能。
- 自己責任で楽しむ:軽い気持ちで他人に手を出すのは絶対に避けること。
合意を得られる相手と出会うには?
SMやフェチ・性癖に特化したサイトを見つけ、書き込みでお相手を探すことが最も安全です。

指先ひとつでSMセフレを検索!
趣味を楽しむなら、自分と相手の安全と権利を守ることが最優先です。
Grok炎上は、AI時代における同意と尊厳の重要性を改めて示しています。軽い気持ちで他人の画像を扱うことは、自分と相手の人生を壊す可能性があることを忘れないでください。






