BREAKING ANALYSIS
楽天AI 3.0の正体と闇——DeepSeekベースの「国産AI」に潜むリスクを6つの視点で解剖
2026年3月17日公開 / Rakuten AI 3.0 / DeepSeek-V3 / GENIAC / セキュリティ分析
📋 この記事でわかること
- Rakuten AI 3.0の仕様・性能・提供形態をわかりやすく解説
- DeepSeek-V3がベースである根拠と、楽天側の説明の問題点
- 米国・日本での DeepSeek 規制状況と「開発元技術」使用の意味
- GENIACプロジェクト(国の補助金)で「中国ベースAI」を作った矛盾
- DeepSeek 以外の選択肢はなかったのか?他モデルとの比較
- 結局のところ使っていいのか?冷静な総評
満を持して発表された楽天グループの「Rakuten AI 3.0」。しかし蓋を開けると、米国の政府機関・軍が使用禁止にした中国製AI「DeepSeek」がベースである疑惑が浮上。国の補助金を受けた「国産AI」の中身は本当に安全なのか——その闇を6つの視点から徹底解剖する。
① Rakuten AI 3.0 とは何か——わかりやすく解説
2026年3月17日、楽天グループは国内最大規模を謳う大規模言語モデル(LLM)「Rakuten AI 3.0」の一般提供を開始した。前世代の「楽天AI 7B」(70億パラメータ)、「Rakuten AI 2.0」から大幅に進化し、今回は一挙に約7,000億パラメータ(正確には671B)という規模に到達した。
PARAMETERS
671B
総パラメータ数(≒7,000億)
ACTIVE PARAMS
37B
推論時の有効化パラメータ
ARCHITECTURE
MoE
混合エキスパート(Mixture of Experts)
CONTEXT LENGTH
128K
トークン入力対応
ライセンスは「Apache 2.0」。商用利用可能なオープンソースとして、楽天の公式HuggingFaceリポジトリから無償ダウンロードできる。開発は経済産業省・NEDOが推進するGENIACプロジェクト第3期の補助を受けて実施された。
📊 日本語ベンチマーク比較(楽天公式発表値)
| ベンチマーク | Rakuten AI 3.0 | GPT-4o |
|---|---|---|
| JamC-QA(日本文化・歴史) | 76.9 | — (下回る) |
| MMLU-ProX 日本語(大学院レベル推論) | 71.7 | — (下回る) |
| MATH-100(競技数学) | 86.9 | — (下回る) |
⚠️ 注意:これらはあくまで楽天が選定・実施したベンチマークの結果であり、評価環境・プロンプト設計によってスコアは大きく変わる。独立した第三者評価ではない点に留意が必要だ。
② DeepSeek-V3 がベース——発覚の経緯と楽天の"曖昧な説明"
公開直後、技術コミュニティはすぐに異変に気づいた。HuggingFaceに公開されたモデルの設定ファイル(config.json)を確認すると、アーキテクチャの記述に「model_type: deepseek_v3」「DeepseekV3ForCausalLM」という文字列が残っていた。
🔥 炎上タイムライン
2026年3月17日
Rakuten AI 3.0 公開。楽天は「オープンソースコミュニティ上の最良なモデルを基に開発」と発表するも、ベースモデル名は明記せず。
公開当日〜翌日
X(旧Twitter)ユーザーがconfig.jsonとNOTICEファイルを解析。「DeepSeek-V3がベース」と特定。「補助金で中身は中華製か」との批判が殺到。
ライセンス問題が発覚
初版公開時、DeepSeek-V3のMITライセンスファイル(LICENSE)が削除されていたことが判明。MITライセンスは派生物に著作権表示の保持を義務付けており、規約違反の可能性が指摘される。
楽天が修正・対応
コミュニティの指摘を受け、楽天はNOTICEファイルを追加しDeepSeek-V3の著作権表示を記載。法的問題は解消されたが「なぜ最初から明記しなかったのか」という透明性への批判は続く。
ITmediaがベースモデルについて楽天側に確認したところ、担当者は「ベースモデルは非開示」として具体的な回答を避けた。HuggingFaceにDeepSeekの表記が出るのは「同サイトの仕様上の問題」と説明したものの、config.jsonに「deepseek_v3」の記述が存在する事実は変わらず、開発者コミュニティからの信頼は大きく損なわれた。
編集部の見解:オープンソースモデルをベースにファインチューニングすること自体は業界の標準的な手法であり、技術的な問題ではない。問題は「最良なモデルを基に」という曖昧表現でベースモデル名を隠し、国産・独自開発の印象を与えようとした発表姿勢にある。これは技術的な問題というより、コミュニケーションと透明性の問題だ。
③ DeepSeekは米国で禁止——その理由と実際のリスク
DeepSeekへの規制は2025年初頭から急速に広がった。その主な懸念点は3つに整理できる。
🔴
データ越境移転
ユーザーのプロンプトや個人情報が中国のサーバーへ送信・保管されるリスク。韓国の個人情報保護委員会は実際にユーザー情報が同意なく中国・米国企業へ移転されていたと公表している。
🟡
ガードレールの弱さ
悪意あるプロンプト(脱獄手法)への耐性が低く、有害コンテンツ生成が比較的容易であるとセキュリティ研究者が指摘。中国政治や安全保障に関する回答のバイアスも報告されている。
🟢
インフラの脆弱性
Wiz社の調査で、認証なしに外部からアクセス可能なDeepSeekのデータベースが発見され、100万件超のログやAPIシークレットが露出していたことが報告されている。
🌍 DeepSeek 使用禁止・制限の主な国・機関
| 国・機関 | 措置内容 | 主な理由 |
|---|---|---|
| 🇺🇸 米国(政府・軍) | 国防総省・海軍・NASA 使用禁止 | データ漏洩・安全保障 |
| 🇦🇺 オーストラリア | 全政府機関で全面排除 | 国家安全保障リスク |
| 🇮🇹 イタリア | サービスアクセスをブロック | 個人情報保護・透明性不足 |
| 🇹🇼 台湾 | 公的機関・公立学校で禁止 | 越境移転・安全保障 |
| 🇰🇷 韓国 | 複数省庁でアクセス制限 | セキュリティ懸念 |
| 🇯🇵 日本(政府) | 公務員は利用「留意」、省庁は制限 | 個人情報・情報漏洩懸念 |
日本では平デジタル大臣が「懸念が解消されるまで公務員による利用は控えるか、利用する場合でも十分な留意が必要」と発言。省庁レベルでも利用回避の流れが続いている。規制としては他国より緩いものの、政府自体がDeepSeekへの懸念を示していることは明白だ。
④ GENIACプロジェクトと「国産AI」の矛盾
今回最も批判が集中したポイントの一つが、GENIAC(Generative AI Accelerator Challenge)との組み合わせだ。GENIACは経済産業省とNEDOが推進する「日本の生成AI開発力強化」を目的とした国家プロジェクトで、採択企業に計算資源と資金を補助する。楽天は2025年7月にGENIAC第3期に採択され、Rakuten AI 3.0の開発にこの補助を活用した。
⚡ 構造的矛盾
🇯🇵
GENIAC補助金
「日本の独自AI開発力強化」が目的
🇨🇳
DeepSeek-V3 ベース
中国発の既存モデルをファインチューン
❓
「国産AI」?
X上に「補助金で中身中華製」批判殺到
ただし、公平に見るとGENIACはゼロからの国内開発を義務付けているわけではない。OpenAIの公開モデルをベースにした日本語特化モデルもGENIACで開発されており、オープンソース活用自体は想定内だ。問題は「中国製の、しかも各国政府が懸念を示しているモデル」をベースに選んだこと、そして透明性の欠如にある。
国民の税金が投入されたプロジェクトにおいて、どのモデルを基盤に使ったかを明記しないことは、透明性の観点から問題があると言わざるを得ない。DeepSeek-V3の事前学習だけで約278万H800 GPU時間を要したとされており、楽天はその成果物を「無償で」流用した上で、日本向けの追加学習を施したことになる。
⑤ DeepSeek以外の選択肢はなかったのか?
671B規模のオープンソースモデルという観点で、2025年時点での選択肢を整理する。
| モデル | 開発元 | 規模 | 課題 |
|---|---|---|---|
| DeepSeek-V3 | 中国DeepSeek | 671B | 各国規制・政治リスク |
| Llama 3.x | Meta(米国) | 最大405B | 671Bに届かず、日本語性能が低い |
| Mistral Large | Mistral AI(仏) | 〜123B | 大幅に規模が小さい |
| GPT-OSS-120B | OpenAI(米国) | 120B | 規模が671Bより小さく後発 |
| スクラッチ開発 | 楽天独自 | 自由 | コスト・GPU時間が膨大(現実的に不可) |
現実問題として、2025年〜2026年初頭の時点でオープンソース671BクラスのモデルはDeepSeek-V3がほぼ唯一の選択肢だったと言える。スクラッチでの事前学習は前述の通り数百万GPU時間が必要で、GENIACの補助規模でも現実的ではない。エンジニアリング的判断としては「最も優秀な無償ベースモデルを使う」という選択は合理的だ。
💡 本質的な問題:「DeepSeek以外に選択肢がなかった」という技術的制約は理解できる。しかしだとすれば、なおさら「なぜ正直に開示しなかったのか」という疑問が残る。透明性さえあれば、多くの批判は防げたはずだ。
⑥ 結局「Rakuten AI 3.0」は使えるのか?冷静な総評
感情論を排して整理しよう。Rakuten AI 3.0の「安全性」を論じるには、「DeepSeekのサービス」と「DeepSeekの技術(モデル重み)」を切り分けることが不可欠だ。
| 観点 | DeepSeek直接利用 | Rakuten AI 3.0(楽天API) | 自前ホスト版 |
|---|---|---|---|
| データ越境移転リスク | 🔴 高 | 🟡 低(楽天環境) | 🟢 なし |
| アラインメント・バイアス | 🔴 懸念あり | 🟡 要評価 | 🟡 要評価 |
| 日本語性能 | 普通 | 🟢 GPT-4o超え | 🟢 GPT-4o超え |
| コスト | 安価 | 要確認 | GPU費用が必要 |
✅ ユースケース別チェックリスト
🟢 ほぼ問題なく使えるケース
一般業務の文書作成・要約・翻訳(機密情報を入力しない前提)、自前サーバーでのローカル運用、開発者・研究者によるベンチマーク・評価用途
🟡 条件付きで使えるケース
企業内ナレッジ検索・RAG(機密データの入力範囲を明確に制限した上で)、楽天系サービスへの統合(利用規約・データ処理同意の確認が前提)
🔴 避けるべきケース
政府・防衛・重要インフラ関連の業務、個人情報・機密情報を大量に扱う業務、「バイアスのない公平な回答」が必須な政策立案・教育用途(アラインメント評価未完了のため)
📌 総評——「国産AI」という看板を再考せよ
Rakuten AI 3.0は、日本語ベンチマーク性能という一点においては本物の成果を上げている。GPT-4oを超えるスコアは、日本語コンテンツと楽天の独自データによる追加学習の効果を示しており、技術的な取り組みを否定するつもりはない。
しかし問題は複層的だ。国の補助金を受けながら、その補助の趣旨である「国内AI開発力強化」を体現するはずのモデルが、各国政府が懸念を示している中国製モデルをベースに構築されているという事実——これを「透明性を持って説明する義務」が楽天にはあったはずだ。発表後に指摘されてようやくライセンス表記を修正するというプロセスは、オープンソースコミュニティへの敬意という観点でも問題がある。
一方で、「DeepSeekベース=危険」という単純な図式も正しくない。オープンウェイトモデルをダウンロードして自前環境で動かす限り、データが中国に送られることはない。問題は「DeepSeek直接利用のリスク」と「DeepSeekアーキテクチャの継承リスク」を冷静に分けて議論する、社会的リテラシーがまだ育っていないことにある。
🎯 結論
Rakuten AI 3.0は「技術的にはそこそこ優秀、透明性は及第点以下」という評価が妥当だ。GENIACの枠組みで開発された以上、楽天には「どのモデルをどう使い、何を独自に開発したか」をきちんと開示する社会的責任がある。「国産AI」という表現を使うなら、その中身について国民が判断できる情報を出すべきだった。今後の楽天の情報開示姿勢と、独自技術の比率向上に注目したい。
情報更新:2026年3月23日 / 参考:ニュースイッチ、ITmedia AI+、Innovatopia、セキュリティ対策Lab、株式会社一創、CHOTTO NEWS、Ignite-biz 他