OpenAIが開発中の次世代AI「Q*(キュースター)」とは

AI新聞

編注:画像はAdobe Fireflyで生成

 

OpenAIがどうやらものすごい次世代AIモデルを開発中らしい。このAIモデルに関してはOpenAIはまだ発表していないが、ロイター通信によると、その名前は「Q*(キュースター)」と呼ばれているらしい。(ソース ロイター通信 英語)

 

最初にそのモデルの存在を明らかにしたのはOpenAIのCEO、Sam Altman氏本人だった。Altman氏が解雇された日の前日、同氏はAPEC(アジア太平洋経済協力)のパネル討論会で「来年、AIは誰も予想しなかったレベルにまで大きくジャンプして進化する」と開発中の次世代AIモデルのブレークスルーについて語っている。また「(そのブレークスルーは)過去2、3週間の間に起こった」と言う。気になるのが同氏の「われわれはAIモデルを作ったのだろうか。新たな生物を作ったのだろうか」という発言だ。そこまですごいブレークスルーなのだろうか。

 

その新しいAIモデルの名称を、関係筋から聞き出したのがロイター通信だった。ロイター通信のこの記事によると、OpenAIの研究者たちはこの新しいAIモデルが汎用AI(人間同等かそれ以上の能力を持つAI)へ向けての大きなブレークスルーだと考えているという。それと同時に研究者たちは、このモデルの持つ危険性に関しても取締役会に報告したという。



Altman氏は取締役会から解雇通告されたものの、その後、CEOに復職しているが、そもそもなぜ最初に解雇通告されただろうか。その理由はいまだに公表されていない。今後も公表されないかもしれない。理由に関してはいろいろ憶測が飛んでいたが、現時点ではこのAIモデルが原因だったのではないかという説が最も有力視されている。

 

つまりこのAIモデルが高性能過ぎて、悪用する者が出てくれば人類に危害を与える可能性がある、と取締役会が判断。このAIモデルの商用化を阻止するために、商用化に前向きなAltman氏を解雇したのではないか、という説だ。

 

OpenAIは営利企業OpenAI LPを監督する組織として、その上部組織として非営利団体のOpenAI Inc.が存在する。今回Altman氏を解雇しようとしたのは、非営利団体OpenAI Inc.の取締役会だ。非営利団体OpenAI Inc.の取締役会の責務は、営利企業OpenAI LPのAIが人類に危害を与えないように監督すること。営利企業OpenAI LPのCEOがどれだけ優秀で、どれだけ売り上げを上げていても関係がない。安全性の一点だけで判断するのが役割になっている。なので今回の解雇劇の原因が、安全性に関連したものだという説が有力なわけだ。

 

そこまで危険なAIモデルの開発が進められているという情報がリークされれば、大きな社会問題になる。なので取締役会が解散させられ、Altman氏が権力の座に戻った今、解雇の理由が公開されることはしばらくなさそうだ。

 

そんな中、AIの研究者の間では、このAIモデル「Q*(キュースター)」がどのようなものであるのかに関し、いろいろな説が飛び交っている。ほとんどすべての説に共通しているのが、このAIモデルは計画エンジンを搭載した言語モデルである、ということだ。

 

計画エンジンとは、AI自身が次に何をすべきかを自分で考え出す技術のことだ。韓国の碁の名人に勝ったAIモデル「AlphaGO」は典型的な計画エンジン搭載AIだった。AlphaGPが次の一手を決める際に、可能な打ち手とその打ち手を打ったあとの打ち手、その後の打ち手と次々と打ち手を計画し、それぞれの可能性のある打ち手を比較して、次の一手としてどの打ち手を採用すれば勝利の可能性を高めることができるのかを計算していた。

 

この計画エンジンと言語モデルを統合したのが、Metaが開発したAIモデル「CECERO」で、「CECERO」は戦略ゲーム「ディプロマシー」で世界チャンピオンに勝っている。「ディプロマシー」は第一次世界大戦前夜のヨーロッパを舞台に、それぞれの国に扮したプレーヤーが外交や軍事行動で領土を拡大していくゲーム。CECEROは人間のプレーヤーに混じってチャットで人間のプレーヤーと交渉し、外国とは敵になったり味方になったりしながら、領土を拡大していったという。

 

Googleの次世代AIモデルのGeminiも、計画エンジンが搭載された言語モデルだと言われている。AIの次の進化としては計画エンジンを搭載した言語モデルというのが次の方向性で間違いなさそうだ。

 

今のAIモデルは、人間が質問したことに答えてくれるレベル。ところがAIが計画エンジンを搭載すれば、AIが自律的に動けるようになる。営業マンの代わりにセールストークが可能なチャットボットを開発できるようになるかもしれない。第1の目的を「顧客に喜んでもらう」、第2の目的を「売り上げを上げる」と設定すれば、営業チャットボットは、顧客に喜ばれながら顧客と交渉し、売り上げを上げるようになるだろう。AIモデルの精度が向上すれば、多くの企業が営業チャットボットを導入するようになるかもしれない。

 

一方で、人間以上に交渉が上手になれば、人間はAIに丸め込まれるようにならないだろうか。Altman氏自身もDeepFakeなどの嘘の情報よりも問題なのが「AIによる1対1の説得だ」と語っている。10月下旬にウォール・ストリート・ジャーナルが開催したイベントに登壇した同氏は、「(DeepFakeよりも)知らない間に人々に影響を与えるAIの能力のほうが問題かもしれない」と語っている(ソース YouTube動画 英語)。この時点で同氏は、「Q*(キュースター)」の安全性の課題に気づいていたのかもしれない。

 

◎Inflection.aiが新LLMを発表。1年後に100倍規模に
有力AIベンチャーInflection.aiが175B(1750億パラメーター)の大規模言語モデル(LLM)「Inflection-2」を発表した。同社のチャットボット「pi(パイ)」に搭載されると。
今回のLLMは、MetaのLLaMA2やGoogleのPalM2より高性能で、GPT-4に迫る勢いだと言う。
DeepMindの共同創業者でInflection.aiのCEOのMustafa Suleyman氏によると、今回のLLMの開発には5000個のNvidia H100 GPUを使って2、3週間で開発したという。
同氏はまた、半年後にはこの10倍、その半年後にはさらに10倍の規模のLLMを開発するという。
今回のOpenAIの騒動でOpen AIの開発力が半年遅れるのであれば、Inflection.aiに追い抜かれることになりそう。

 

◎学習データを合成してくれる生成AI
AIってデータがなければただの箱。今のAIがここまで進化したのもネット上のデータを拝借できたから。でも世の中には、「このタスクをAIで自動化したいけど、学習データが足らない」というニーズがあちらこちらにある。
そういうニーズに応えるために、学習データを合成してくれる生成AIが登場した。少しは存在するデータを元に同じようなデータや、存在しないけどありえなくもないデータを自動的に生成してくれる。
こういう合成データって自動運転の世界では当たり前になっている。安全に運転するには、例えば急カーブで減速しなければ遠心力でガードレールを突っ切って大事故になる、というデータが必要になるんだけど、そんなデータはそうそう存在しない。そこでシミュレーションの中でデータを合成する方法が編み出された。
テキストの世界でも同様の合成データを生成しようというツールが出てきた

湯川鶴章

AI新聞編集長

AI新聞編集長。米カリフォルニア州立大学サンフランシスコ校経済学部卒業。サンフランシスコの地元紙記者を経て、時事通信社米国法人に入社。シリコンバレーの黎明期から米国のハイテク産業を中心に取材を続ける。通算20年間の米国生活を終え2000年5月に帰国。時事通信編集委員を経て2010年独立。2017年12月から現職。主な著書に『人工知能、ロボット、人の心。』(2015年)、『次世代マーケティングプラットフォーム』(2007年)、『ネットは新聞を殺すのか』(2003年)などがある。趣味はヨガと瞑想。妻が美人なのが自慢。

  • Home
  • AI新聞
  • OpenAIが開発中の次世代AI「Q*(キュースター)」とは

この機能は有料会員限定です。
ご契約見直しについては事務局にお問い合わせください。

関連記事

記事一覧を見る