告発動画120万再生と「78%」という数字が変えたもの
2026年3月、アメリカの出版業界に前例のない決定が下された。大手出版社ハシェット・ブック・グループが、自社の出版契約を結んでいた作家ミア・バラードのホラー小説「Shy Girl」の全ラインナップを撤回したのだ。英国版はすでに1,800部が販売されていたが回収対象となり、米国版(Orbit刊)の発売は中止された。
撤回の理由は、原稿の大部分がAIによって生成されたという疑惑だ。AI検出ソフトウェア「Pangram」の分析者マックス・スペロ氏は「78%がAI生成と判定された」と明言した。これは、作家が書いた部分よりも機械が生成した部分の方が多いことを意味する。大手出版社がAI疑惑を理由に正式な契約作家の著書を取り下げたのは、記録に残る限り出版史上初のことだ。
この判断を引き起こしたのは、1本のYouTube動画だった。書評クリエイター「フランキーズ・シェルフ」が投稿した約3時間に及ぶ告発動画が急速に拡散し、120万再生を超えた。動画では文体の不自然な均質性、展開の機械的なパターン、特定の語彙の過剰な繰り返しがAI生成の証拠として挙げられた。Redditのコミュニティでも元書籍編集者を名乗るユーザーが「プロの編集眼でもAI生成と判断できる」と追随し、炎上が加速した。
元記事・原文引用
元ネタ:It Sounds Like Hachette Really Investigated Whether “Shy Girl” Was Written With AI Before Pulling It From the Market(Futurism / 2026年3月)
Max Spero of Pangram detection software found “78 percent of the book is AI-generated.”
また、パブリッシャーズ・ウィークリーはこの問題に関して業界全体の対応を検証した記事の中で、研究者レイチェル・ノルダの発言を引用している。「出版社が著者のAI使用を制限する動きは、純粋な倫理原則ではなく、市場ポジションを反映していることが多い」。この言葉が業界の矛盾を突く。
「自費出版→TikTok→大手契約→AI炎上」——この連鎖が生まれた構造的理由
「Shy Girl」の経緯はこうだ。ミア・バラードはまずこの小説を自費出版し、ソーシャルメディア、特にTikTokを通じて読者を獲得した。バイラルな書評文化「ブックトック」の影響で口コミが広がり、ハシェット傘下のオービット・インプリントが商業出版契約を結んだ。このルート——自費出版→SNS人気→大手買収——は近年のアメリカ出版界で増加しているパターンだ。
ここに構造的な落とし穴がある。パブリッシャーズ・ウィークリーの報道によれば、大手出版社は以前に自費出版されたタイトルを買い取る際、通常は最小限の編集作業しか行わない。「AI生成コンテンツが入り込めるギャップがそこにある」と業界専門家は指摘する。著者本人が書いたかどうかを出版社が深く検証するプロセスが制度化されていなかったのだ。
さらに深刻なのは、大手5社(「ビッグファイブ」)のうち、AI使用に関する公式ポリシーを公表しているのはペンギン・ランダム・ハウスだけという現実だ。同社は著者との契約に「オリジナル」作品であることを要求し、編集者にAI使用のパラメータを設定するトレーニングを実施している。他の4社は公式に沈黙している。
もう一つの矛盾も見落とせない。出版社は著者のAI使用を禁じようとしながら、自社のマーケティング業務(SNS投稿文案の生成など)にはAIを積極的に活用している。「著者には禁じ、自分たちは使う」という二重基準が、業界内の信頼をさらに複雑にしている。
日本の出版業界も同じ問題の入り口に立っている
この問題はアメリカだけの話ではない。日本の出版業界も、遅れて同じ課題に向き合い始めた。
日本書籍出版協会は2026年3月30日、生成AIへの対応を議論する検討会を設置した。381の加盟企業のうち約40社が参加し、著者の執筆時AI使用を想定した契約書への規定盛り込みを含むガイドラインを、2026年秋を目途に策定する予定だという。これは「Shy Girl」事件が起きたちょうど同じタイミングだ。
さらに、2025年10月31日には出版17社と一般社団法人日本動画協会、公益社団法人日本漫画家協会が「生成AI時代の創作と権利のあり方に関する共同声明」を発表し、著作権侵害を容認しないという原則を確認した。文化庁も2024年3月にAIと著作権に関する考え方を示している。
しかし日本の現状も、アメリカと同様の問題を抱える。AI生成テキストを確実に検出する技術はまだ発展途上であり、「AI検出ツールによる判定は必然的に誤りを含む」とノルダ研究者が指摘するように、検出精度への過信そのものがリスクになりうる。ガイドラインが策定されても、実効性を担保する仕組みは別途必要だ。
真正性の保証を誰が引き受けるか——著者・出版社・読者の「信頼の再設計」が始まった
「Shy Girl」事件が問うているのは、AIが書いたかどうかという技術論ではない。書いたのが誰であるかを「誰が、どう保証するか」という制度設計の問題だ。
著者ミア・バラード本人は「AIを使ったのは自分ではない。自費出版時に雇った編集者が使った可能性がある」と主張した。これが事実であれば、問題は著者の悪意ではなく、外注された編集プロセスへの管理の欠如ということになる。「誰が書いたか」の連鎖が長くなるほど、最終的な責任の所在が曖昧になる。
ハシェットは声明で「オリジナルの創造的表現を守ることへの取り組みは変わらない」と述べた。だが皮肉なことに、同社はAnthropicを含む大手AI企業に対して著作権侵害訴訟にも参加している。AIから文学を守ろうとしながら、AI開発に使われた素材の問題にも巻き込まれている——これが現在の出版業界の立ち位置だ。
代理人や編集者の間では「透明性と対話」を求める声が上がる。ジャン・V・ナガー文芸エージェンシーのジェニファー・ウェルツ代表は「すべての出版プロセス参加者がAIツールの使用について明確な対話を行うべきだ」と訴える。しかし制度が整う前に、業界はすでに「最初の前例」を作ってしまった。
「Shy Girl」事件は終わりではなく始まりだ。AI生成の検出精度が向上するほど疑惑の連鎖は広がり、逆に精度が低ければ誤判定のリスクが増す。著者・出版社・読者の三者が築いてきた「書かれたものへの信頼」という暗黙の契約は、今まさに再設計を迫られている。日本の出版業界も、秋に向けたガイドライン策定が「形式的な免罪符」にならないよう、この問いに向き合う必要がある。


