
中国のAIスタートアップDeepSeekが、世界最先端クラスのAIモデル「DeepSeek R1」をリリースしたことで、AI業界のみならず、投資家や政治家まで巻き込んだ大騒ぎになった。そのことは前回の原稿に書いた通り。そのDeepSeekショックと呼ばれるような大騒ぎから一週間が経った。これまでに多くの憶測や情報が飛び交っているが、ここで現時点までで明らかになったことと、まだ不明な点について整理してみたい。
1. なぜ情報が錯綜するのか?
まずなぜここまでいろいろな情報が錯綜するのだろうか。恐らく「R1」が中国企業によって開発されたことや、オープンソースでリリースしたことで、米国を応援する人、中国を応援する人、オープンソースを支持する人、クローズドソースを支持する人など、さまざまな立場の人々がそれぞれの思惑や憶測を事実のように広めていて、何が本当で何が誇張なのかを見極めるのは難しくなっているのだと思う。こういうときは、情報の発信者が信頼に足る人物かどうかを見極めることが重要だと思う。
個人的に信頼できる情報を提供していると思われるのが以下の人物である。この原稿ではこの二人に加え、信頼できる人たちの発言を集めてみた:
-
David Sacks氏(シリコンバレーの著名投資家)
- トランプ政権下でAI・クリプトのトップアドバイザーを務める。
- 多くの関係者から一次情報を得る立場にある。
-
Andrew Ng氏(スタンフォード大学非常勤教授)
- AI業界の動向を冷静かつ客観的に分析する専門家。過去の論争でも主流意見に流されることなく客観的な分析を提供していた。\
2. 分からないこと①:DeepSeekの開発コストは本当に1/20だったのか?
DeepSeek R1のベースとなった基盤モデル「DeepSeek V3」を詳述した論文「DeepSeek-V3 Technical Report」によると、「V3はNVIDIAのH800を278万8000時間稼働させて開発された」とある。仮に利用料金が1時間あたり2ドルだとすれば、開発コストは約557万6000ドルとなる。一方で、OpenAIのGPT-4oの開発コストは8000万〜1億ドルと推測されている。この数字だけ見れば、GPT-4oの約1/20の開発コストでV3が開発されたことになるし、この数字の比較だけで、米国のAI企業が中国に負けたかのような意見が散見された。
しかし、この「1/20の開発コスト」という主張には疑問が残る。David Sacks氏によると、600万ドルという数字は最終的な1回のトレーニングランのコストに過ぎず、事前の研究費用や人件費などは含まれていないという。確かに半導体専門の調査会社SemiAnalysisの分析によれば、DeepSeekは約10,000個の半導体H800とH100を所有し、5億ドル以上のハードウェア投資を行ってきたとみられる。従って、開発コストが600万ドルというのは過小評価されている可能性が高い。
現時点で分かったこと:これは、どこまでを開発コストとして定義しているのか、という問題に過ぎない。DeepSeekの論文に書かれているのは、研究開発が全て終わった後のトレーニングに掛かった費用のみ。一方で米国企業の言う1億ドルとは、人件費、設備費など研究開発の全てを含んだ金額。つまり話を面白くするために、マスメディアなどが異なる性質の数字を並べて比較したことによる誤解だと思う。ただ1/20という数字ほど大きな差はないが、コスト効率の高い開発手法が採用されたのは事実と考えられる。
3. 分からないこと②:DeepSeekの技術力は米国に近づいたのか?
著名投資家のChamath Palihapitiya氏は「DeepSeekに素晴らしい技術力があることは事実」と述べている。
同氏によると、DeepSeek R1では次の2つのアプローチを採用することでコスト削減に成功したと言う:
-
GRPO(Group Relative Policy Optimization):
- これまでは、強化学習手法PPO(Proximal Policy Optimization)と呼ばれる手法を使うことが多かった。PPOでは、もう一つ別のAIモデルを作って答えを評価するため、より多くの計算資源を必要とした。GRPOでは、1つのモデルが自分自身の答えを評価し、その評価も複数の答えの中から相対的に優れたものを選ぶ方法を採用している。また真偽を確認する必要がないため計算資源を節約できるメリットがある。
-
PTX(NVIDIAの低レベル命令セットの最適化):
- H800などの性能の低い半導体でも最大限のパフォーマンスを発揮できる。
Allen Institute for AIのNathan Lambert氏によると、NVIDIAの半導体活用の最適化ができるような優れた技術者は非常に少なく、「その数少ない優秀な技術者の一人がDeepSeekにいるということだ」とその技術力を絶賛している。他にも技術面でDeepSeekを評価する経営者は多く、Uberの創業者のTravis Kalanick氏は「DeepSeekの論文を読んだけど、彼らはすごい技術者だと思った」と語っている。
Andrew Ng氏は、DeepSeekのAI研究への大きな貢献の1つは「AIの進歩にはスケールアップ以外の道もあると示したことだ」と語っている。同氏もこれまでAIの研究開発の方向性をスケールアップによる性能強化と考えていた時期があったと言う。だがDeepSeekのおかげでAIの研究開発の方向性には、コストパフォーマンスの最適化という分野もあるのだと認識するようになったと指摘している。
現時点で分かったこと:DeepSeekの技術力は確かに素晴らしく、米中間のAI技術格差が縮まったのは間違いない。
4. 分からないこと③:DeepSeekはOpenAIのデータを不正に利用したのか?
Bloomberg通信や日本経済新聞が「DeepSeekと関連するグループがOpenAIのAIモデルから大量のデータを不正に取得していた」と報じている。現在、MicrosoftとOpenAIが調査中であり、不正利用があったのかどうか、現時点では断定できない。
問題となっているのは「蒸留」と呼ばれる開発手法で、「蒸留」とは、新しいAIモデルを開発する際に、既に存在する基盤モデルに質問し、そのモデルが出してきた回答を新しいモデルの学習データとして利用する方法のことだ。多くのオープンソースモデルはこの方法を使って開発されているが、OpenAIでは同社のモデルを使った蒸留を禁止、もしくは一部企業に限定している。今回の問題は、DeepSeekがOpenAIの利用規約に反してOpenAIのモデルを使った蒸留を行っていたのではないかという疑惑だ。
DeepSeek R1に対して「あなたは誰ですか」と質問すると「私はOpenAIのモデルです」と答えたという報告がX(旧twitter)上に上がっている。これが蒸留が行われていた証拠だとして大騒ぎになっているわけだ。
ところがAIのエンジニアの間では、R1の基盤モデルであるDeepSeek V3が1ヶ月前にリリースした際にも蒸留の噂が出ていた。V3に同様の質問をすると、やはり「私はOpenAIのモデルです」と答えていた。しかしその時は、それほど大きな問題として取り上げられることはなかった。
David Sacksによると、こうした回答をするのは①実際に蒸留されたから②学習データとしてネット上のテキスト情報の中にOpenAIのモデルの名称が多く存在するから、の両方のケースが考えられるので、必ずしも蒸留が行われたと断定はできないと言う。ただメディアの取材に対し「蒸留の可能性がある」と語ったところ、DeepSeekのモデルがOpenAIの不正にコピーであるというような論調で大きく報道されたと言う。
「不正取得」というとかなり大きな問題のように感じられるかもしれないが、シリコンバレーの有識者の間では、もしこの疑惑が事実であったとしても単なる利用規約違反なので、それほど大きな問題だとは感じていないようだ。
「不正利用があったとすれば、それをすぐに阻止できなかったクラウド側の責任ではないのか」(Chamath Palihapitiya氏)、「規約違反があったのかどうかは分からないが、DeepSeekの論文を読んだ限りでは、不正をする必要のない優れた技術者集団だと思う(Travis Kalanick氏、Uberの創業者)、「OpenAIは元々はオープンソースをしたかったのに、クローズドソースの会社になった。ネット上のデータを盗んでNew York Timesから訴えられた。ところが中国の会社がOpenAIのデータを盗んでオープンソースで公開した。なんという皮肉。OpenAIには全く同情できない。全てオープンソースになってよかったさえと思っている」(Jason Calacanis氏、起業家、投資家)といった意見が多い。
現時点で分かったこと:利用契約に違反する行為があったのかどうかはまだ分からないが、シリコンバレーの有識者たちはDeepSeekの行為にそれほど批判的ではないようだ。それどころかAllen Institute for AIのNathan Lambert氏のように「DeepSeekは世界中の研究者のために素晴らしい仕事をした。彼らの論文は非常に詳細で、世界中の研究者にとって非常に実用的な内容になっている」と絶賛する意見が多い。
5. 分からないこと④:オープンソースがクローズドモデルを凌駕するのか?
DeepSeek-R1がオープンウェイトで公開されたことにより、AIの研究開発におけるオープンソースの重要性が改めて浮き彫りになった。
Andrew Ng氏は「オープンウェイトモデルはAIサプライチェーンの重要な要素になりつつある」と述べており、基盤モデルのコモディティ化が進む可能性が高いと予測している。
- OpenAI o1のAPI利用コスト:100万トークンあたり60ドル
- DeepSeek-R1のAPI利用コスト:100万トークンあたり2.19ドル
このような価格差が、オープンソースモデルの競争力を高めている。
現時点で分かったこと:クローズドソースが最終的に負けるかどうかは不明だが、DeepSeekなどのオープンソースモデルの影響で、OpenAIやAnthropic、Googleなどのクローズドモデルに対する値下げ圧力がかかるのは間違いない。基盤モデルがコモディティ化するわけで、そうなると基盤モデルの利用料金だけで投資のリターンを確保するのは難しくなるだろう。基盤モデルの利用料金以外の収入源が必要になってきそうだ。
6. 新しい展開:パーソナルAIが次の戦場に?
基盤モデルがコモディティ化すれば、基盤モデルの利用料金だけでは、膨大な投資のリターンを回収できない。利用料金以外の大きな収入源になりそうなのがパーソナルAIだ。パーソナルAIとは、ユーザー一人一人のニーズを熟知した、秘書のようなAIモデルだ。パーソナルAIはパソコンやスマートフォンに常駐していて、ユーザーの活動履歴などのプライベートな情報を把握した上で、旅行の予約などを代行してくれたり、的確なアドバイスをくれたりするようになると考えられている。
テック大手の多くはパーソナルAIが次のテクノロジー業界の主戦場だと考えて戦う準備を進めているわけだが、その戦いを最も有利に進められそうな一社がFacebookやInstagram、WhatsAppなどを傘下にもつMetaだ。
MetaのCEOのMark Zuckerberg氏はこのほど、全社員向けに「今年は勝負の年だ」というビデオメッセージを送っている。その中で同氏は「(2025年は)高度にインテリジェントでパーソナライズされたAIのユーザー数が10億人に達する年になる」、「(パーソナルAIを最初に普及させた)企業は、歴史上最も重要な製品の一つを作る上で長期的かつ永続的な優位性を得ることになるだろう」と語ったという。
Metaの各サービスの合計デイリーアクティブユーザー数(DAU)は、2024年7~9月期の報告では32億7,000万人に達したと報告されている。確かにMetaならパーソナルAIユーザー10億人を達成できるかもしれない。
そんな中、OpenAIが3400億ドルの評価額で400億ドルの追加調達を計画中だという報道があった。Palihapitiya氏は「OpenAIがさらなる資金調達を行うのは、( コモディティ化して大きなリターンが期待できない)基盤モデルではなく、パーソナルAIで勝負しようとしているからではないか」と指摘する。
技術力で先頭を走るOpenAIと、ユーザー数で先頭を走るMeta。「正面衝突するようになる」とPalihapitiya氏は言う。
基盤モデルはいずれコモディティ化する。以前からそうした指摘はあったが、DeepSeekがそのシナリオをより現実的なものにしたと言えるだろう。もはや中国vs米国、オープンソースvsクローズドソースという勢力争いではなく、実は別の勢力争いが始まろうとしているのかもしれない。

湯川鶴章
AI新聞編集長
AI新聞編集長。米カリフォルニア州立大学サンフランシスコ校経済学部卒業。サンフランシスコの地元紙記者を経て、時事通信社米国法人に入社。シリコンバレーの黎明期から米国のハイテク産業を中心に取材を続ける。通算20年間の米国生活を終え2000年5月に帰国。時事通信編集委員を経て2010年独立。2017年12月から現職。主な著書に『人工知能、ロボット、人の心。』(2015年)、『次世代マーケティングプラットフォーム』(2007年)、『ネットは新聞を殺すのか』(2003年)などがある。趣味はヨガと瞑想。妻が美人なのが自慢。