📊 3行サマリー

  • Tech Transparency Projectが2026年4月15日に発表した調査で、Apple App Storeの18本、Google Playの20本が「ヌード化アプリ」として機能していることが判明。
  • 対象アプリは累計4億8,300万ダウンロード、推定収益1億2,200万ドル規模。うち31本が「子ども向け」レーティングで配布されていた。
  • 日本の警察庁も2025年12月、18歳未満の性的ディープフェイク被害相談79件(加害者の5割超が同じ学校関係者)を初公表しており、審査責任の空白は日米共通の課題になっている。

📝 Apple 18本・Google 20本で「ヌード化アプリ」、累計4億8,300万ダウンロードに

米非営利団体Tech Transparency Project(TTP)が2026年4月15日に発表した調査で、Apple App Storeに登録された46本のアプリのうち18本(39.1%)、Google Play登録49本のうち20本(40.8%)が、写真から衣服を除去して裸の画像を生成する「ヌード化(nudify)」機能を持つことが確認された。両社の公式ストア経由で配布されたこれらのアプリは累計4億8,300万ダウンロードに達し、市場調査会社AppMagicの推計で約1億2,200万ドル(約183億円)の収益を生んでいる。Appleと Googleは公式には性的コンテンツを生成するアプリを禁じているにもかかわらず、審査をすり抜けたアプリが大量に流通していた実態が浮き彫りになった。

📰 Tech Transparency Project調査:検索結果上位40%がヌード化アプリ、Appleは広告枠でも出稿

元ネタNew report claims App Store search suggestions and ads steered users to ‘nudify’ apps(9to5Mac / 2026年4月15日)

The platforms are key participants in the spread of AI tools that can turn real people into sexualized images.(両プラットフォームは、現実の人物を性的画像に変換するAIツールの拡散における主要な参加者である)

TTPの調査は、単にアプリが審査を通過していた事実だけでなく、アプリストアの検索機能そのものがユーザーを該当アプリへ誘導していた点を問題視している。検索語「nudify」「undress」「deepnude」を入力したときに上位10件中ほぼ4割が関連アプリを表示し、Apple自身が広告枠でこれらのアプリに露出を与えていた事例も確認された。指摘を受けたAppleはその後15本のアプリを削除し、残る6本に14日以内の遵守期限を設定。Googleも「多くは既に削除済み」と回答したが、なぜ検索アルゴリズムがこれらを推薦するのかについて両社は説明を避けている。

🔥 「顔交換アプリ」の皮をかぶり児童向けレーティング31本が審査をすり抜けた構造

問題の核心は「どう審査をすり抜けたか」にある。TTPが指摘した38本のうち31本が「子ども向け(4+もしくはTeen)」レーティングで配布されていた。アプリ自体は「AI写真編集」「顔交換(face swap)」と表示し、アイコンや初期画面に性的要素を出さないため、Appleの自動レビューと人間レビューを突破しやすい構造になっている。課金モデルはサブスクリプション型が主流で、初期無料で「機能解放」という形で有料プランに誘導する。AppMagicの推計では、このビジネスモデルで1本あたり平均320万ドル規模の収益を上げており、すでに小規模なニッチ市場ではなく、アプリ経済の一角を占める「暗黒産業」として自立している。OECDのAIインシデントデータベースも2026年1月27日にこの問題を記録し、欧州委員会はDSA(デジタルサービス法)違反としてApp Storeに正式調査を開始した。

🇯🇵 警察庁、18歳未満の性的ディープフェイク被害相談79件を初公表。加害者の5割超は同じ学校

日本でも構造はほぼ同型だ。警察庁は2025年12月17日、18歳未満からの性的ディープフェイク被害相談が2025年1〜9月で79件に達したと初公表した。内訳は中学生41件、高校生25件、小学生4件で、全体の約8割が中高生。加害者側の調査では53.2%が被害者と同じ学校の児童・生徒で、生成AIの使用が14件、画像編集アプリの使用が2件、残りは生成AI由来と推定されている。日本国内でも同種の「ヌード化アプリ」がAppleとGoogleのストア経由でダウンロードされており、米TTPが指摘した構造がそのまま日本の中高生被害に直結している。現行法では名誉毀損罪や児童ポルノ禁止法で立件が可能だが、非同意ディープフェイクそのものを禁じる独立した法制度は日本にはない。インドが3時間以内の削除義務を2026年2月に制定したのに対し、日本は法整備の議論段階にとどまる。

🏁 アプリストアが非同意ディープフェイク市場の最大インフラになった

この問題の本質は「悪質な開発者が存在する」ことではなく、「Apple・Googleが審査責任を果たさず、非同意ディープフェイク市場の最大の配布インフラになっている」ことだ。4億8,300万DLという規模は、両社が自発的に対応すれば被害を数桁単位で減らせることを意味する。インドが3時間ルール、EUがDSAに基づく正式調査、ミネソタ州と英国が禁止法案を検討するなか、日本は法整備の遅れに加えて「アプリストアの審査責任を問う」議論自体が成熟していない。業界ウォッチャーが注視すべきは、欧州委員会の調査結果が2026年後半に出る見通しであり、その結論がApple・Googleの審査義務を世界規模で再定義する可能性がある点だ。日本の規制当局が米欧の動きに追随するのか、それとも独自にプラットフォーム責任を問い直すのか、今後1年の動向が中高生被害の行方を決める。