📊 3行サマリー

  • 中国Z.ai(前Zhipu AI)が2026年4月7日に公開したGLM-5.1が、難関コーディング指標SWE-Bench Pro58.4を記録。GPT-5.4(57.7)・Claude Opus 4.6(57.3)・Gemini 3.1 Pro(54.2)を抜き、オープンソースモデルとして史上初めて首位を取った。
  • 総パラメータ7,440億(Mixture-of-Experts、アクティブ400億)、コンテキスト20万トークン、最大出力13.1万トークン。ライセンスは商用利用制限のないMITで、HuggingFace上で重みが公開されている。
  • 学習にはHuawei Ascend 910Bを約10万基使用し、NVIDIA GPUは一切使っていないとされる。API価格は入力$1.00/100万トークン・出力$3.20/100万トークンと、大手クローズドモデル比で1/10クラス。日本企業にとっても商用導入の障壁が一気に下がる構造変化だ。

GLM-5.1がSWE-Bench Pro 58.4で首位、GPT-5.4とClaude Opus 4.6を抜く

2026年4月7日、中国のAIスタートアップZ.ai(旧Zhipu AI、清華大学発)が公開したフラッグシップモデルGLM-5.1が、現行で最も難しい実プロジェクト型コーディングベンチマークSWE-Bench Proのスコアで58.4を記録した。OpenAIのGPT-5.4(57.7)、AnthropicのClaude Opus 4.6(57.3)、GoogleのGemini 3.1 Pro(54.2)という主要クローズドモデルを同時に上回ったのは、オープンソースLLMとしてはこれが初めてだ。Z.aiは同日、モデルの重みをMITライセンスでHuggingFaceに公開し、個人・商用の別なく再配布・改変を認めている。

Modem Guides報道:MITライセンスで10万基のHuawei Ascend 910Bで学習

元ネタGLM-5.1 Open Source: #1 on SWE-Bench Pro (What to Know)(Modem Guides / 2026年4月7日)

The entire GLM-5 family was trained on approximately 100,000 Huawei Ascend 910B chips using the MindSpore framework. No Nvidia GPUs were used.

BuildFastWithAI は同モデルを「コーディング系ベンチマークでGPT-5.4とClaude Opus 4.6を初めて打ち負かしたオープンソースモデル」と位置づけ、Constellation Research は「長時間のエージェント型タスクに耐えるよう設計された」と評している。Z.aiは2026年1月8日に香港証券取引所へ上場し、FY2025売上1.048億ドル(前年比131%増)を計上している企業でもある。

7,440億パラメータMoEとNVIDIA完全非依存、API価格は大手クローズド比1/10クラス

GLM-5.1の技術仕様は以下の通り。

  • 総パラメータ:7,440億(Mixture-of-Experts)
  • アクティブパラメータ:400億/トークン
  • コンテキスト長:200,000トークン
  • 最大出力長:131,072トークン
  • 学習ハードウェア:Huawei Ascend 910Bを約100,000基、MindSporeフレームワーク上で実行
  • API価格:入力$1.00/100万トークン、出力$3.20/100万トークン
  • ライセンス:MIT

注目すべきは、学習にNVIDIA GPUを一切使っていないという一点だ。米国の対中半導体輸出規制が厳格化する中で、Huawei Ascend 910Bという中国国産チップだけで最上位ベンチマークに到達できたことは、「中国AIは米国ハードがなければ成り立たない」という従来の前提を構造的に覆す。価格面でも入力$1.00/100万トークンは、同クラスの高性能クローズドモデルの公式API料金と比較しておおむね1/10前後となり、長期運用コストの差は無視できない。

日本企業はClaude Opusの代替として商用導入可、社内展開のコスト障壁が消える

日本企業にとってGLM-5.1が持つ意味は大きく3つある。

1. MITライセンスで商用利用の法務ハードルが事実上ゼロになる。オープンソースを社内ツールや製品に組み込む際、GPL系ライセンスのコピーレフト条項や、Llama系の商用利用制限条項(月間アクティブユーザー数しきい値など)が日本企業の法務審査で止まることは多いが、MITは再配布・商用利用・改変をほぼ無条件で認める。社内コード生成AIや顧客向けSaaSに乗せる際の壁がここで消える。

2. コーディング用途での「Claude Opus代替」が初めて現実的になる。SWE-Bench ProはClaude Opus 4.6が長く首位を保っていた指標で、国内のAIコード支援ツール・開発エージェント製品の裏側ではClaude系が採用されるケースが多い。GLM-5.1がその上を取ったことで、コスト構造を重視する日本のSI・受託開発・スタートアップにとっては「性能は同等以上、価格は1桁安い」という調達判断が初めて成立する。

3. オンプレ/ソブリン運用が現実解になる。重みをダウンロードできるため、機微データを外部APIに送れない金融・公共・防衛系の日本企業は、自社データセンターやクラウドでクローズド運用が可能になる。国産LLMへのキャッチアップ速度が鈍い業界にとって、海外クローズドAPIと国内オンプレの間に入る第3の選択肢が生まれた形だ。

一方でリスクもある。学習データの来歴は公開されておらず、中国政府の情報統制下で生成されたモデル重みに由来する出力バイアス・コンテンツ制限は、日本語・英語での利用でも残留する可能性がある。金融・医療・公共調達では、オープンソースであっても「中国由来モデル」としてのセキュリティレビューが必須になるだろう。

オープンソース優位が加速、日本のAI調達戦略は再設計を迫られる

GLM-5.1の発表が示すのは、生成AIの競争軸が「最高性能のクローズドモデルを誰が作るか」から「最高性能をオープンで提供しつつ、どのハードウェア基盤で動かせるか」へ移行したという構造変化だ。米国がNVIDIA H100/Blackwellを中国に売らないことで中国AIを封じ込めるという戦略は、少なくともモデル側では今回はっきりと破綻した。一方で日本企業の立ち位置は、クローズド派(OpenAI・Anthropic中心)か、オープン+国内運用派(中国系・欧州Mistral系を含む)かの二択に再定義されつつある。2026年後半のAI調達予算を決める各社にとって、GLM-5.1の登場は「Claude Opus一択」時代の終わりを告げるシグナルとして記録されることになる。