【編注:画像は「若者と年配者がAIの未来について議論している図」というプロンプトでDALL-Eが生成】
Microsoftの創業者Bill Gatesが主催しているポッドキャスト「Unconfuse me」にこのほど、OpenAIのCEOのSam Altman氏がゲストとして登壇した。Gates氏、Altman氏ともに技術者であり、経営者。通じ合うところもあるようで、他のインタビューに見られないような本質的な話が幾つか飛び出した。OpenAIは今のAIの技術革新をリードしている会社。その会社のCEOが見るAIの近未来図は、人類にとってもAIの近未来図になる可能性が高い。そういう意味でこのインタビューの内容は貴重だ。
一方で二人の間で話が通じ合ってしまうので、一般視聴者には分かりづらい表現も幾つかあった。そこで解説を交えながら、AIの進む方向を探っていきたいと思う。
次のAIの重要な進化は論理的思考
「今後2年間でAIはどう進化するのか」というGates氏の質問に対しAltman氏は、まずマルチモダリティを挙げている。今の大規模言語モデルは主にテキスト情報を扱っているが、それに加えて画像データ、音声データ、映像データなど複数の(マルチな)データの種類(モード)を扱えるようになってきている。
OpenAIの言語モデルが画像や音声を扱えるようになってきたことの反響は大きく、Altman氏は「想像していた以上の反応があった」と語っている。
同氏は「もちろんマルチモダリティの機能を拡充していく」としながらも今後2年間で「最も重要なのは論理的思考に関する進化だ」と語っている。「今のGPT-4は、極端に小さい論理的思考しかできない」と言う。
AIに論理的思考を持たせるためには、どのような技術的な仕組みが必要なのか、などといった具体的な説明はAltman氏からはなかった。今後2年間での最重要課題ということなので、OpenAIは当然、開発に取り掛かっているのだろう。その進捗具体を競合他社に教えるわけにはいかないので、今回のインタビューでこれ以上の詳しい話をしなかったようだ。
ただ論理的思考に関連する技術開発が、OpenAIが開発中と噂されている「Q*(キュースター)」に関連する技術である可能性が高いと思う。Q*(キュースター)は、OpenAIが開発中の次世代AI「Q*(キュースター)」とは、という記事に書いた通り、AIが自分で次の行動を決める計画エンジンになると見られている。次の行動、その次の行動と計画するには、どういう理由でその行動を取るべきなのかといった論理的な思考が不可欠。Altman氏の言う次の2年間の最も大きな進化とは、Q*(キュースター)のことを指しているのかもしれない。
「信頼性」「カスタム性」「パーソナライゼーション」も
このほか同氏は、「信頼性」「カスタマイゼーション」「パーソナライゼーション」なども今後2年間のAIの重要な進化だとしている。
Altman氏いわく「今のGPT-4は、1万回に一回くらいに、とてもいい答えを返してくる」。それを「毎回、最高の答えを返してくるぐらいに信頼性を高めたい」としている。
一方でカスタマイゼーションに関して同氏は「人々はGPT-4に異なるスタイル、異なる推定を求めている。さまざまなことを求めている。こうしたニーズに応えたい」と言う。
異なる推定とは、原文ではdifferent set of assumptionsとなっている。assumptionとは、推定、想定、仮定、といった意味。直訳すると「異なる推定」というように分かりづらい表現になるが、「異なる価値観、異なる常識、異なる前提情報」というような意味で使っているのだと思う。アメリカのユーザーと日本のユーザー、さらには中国のユーザーの間では、価値観、常識、前提となる知識が異なる。AIが、アメリカの価値観、常識、前提となる知識をベースに答えても、日本のユーザーや中国のユーザーには、ピンとこない内容になる可能性が高い。そこで、地域別、文化別、業種別、年齢別のAIモデルが求められるようになるとAltman氏は考えていて、それを提供していきたい、ということなのだろう。
一方、パーソナライゼーションに関しては、Altman氏は「個人のデータも扱えるようにする」と語っている。「あなたのこと、あなたのメール、あなたのカレンダー、そしてどのようにスケジュールが決まったかなどをAIが知っていて、そうしたことと、そのほかのデータと連携できるようにする」と言う。もちろんブライバシーの問題もあるだろうが、それが解決して、AIがユーザーのことをよく知った上で質問に答えるようになれば、AIはデジタル秘書になっていくことだろう。同氏は、そういった方向にAIを進化させようというわけだ。
つまり、今後2年間でAIは、自分で何をすべきか判断できるようになり、ユーザー一人一人に合った受け答えができるような存在に進化していくというわけだ。
ブラックボックスの中身を理解できるようになるのか
AIはブラックボックスだと言われる。データを入れれば、答えが出てくる。ほとんど間違うことがないので、われわれはそのままAIを利用し続ける。しかしAIモデルの中身が複雑すぎて、なぜAIがその答えを出したのかは分からない。なので中身はブラックボックスだと言われる。
しかしAIがどういうメカニズムで答えを出しているのかを理解しないまま、人類はAIに頼り続けていいのだろうか。AIが間違ったときに大変な代償を支払う結果になりはしないだろうか。
Bill Gates氏も同様の懸念を持っているようで、「ChatGPTがこんなにすごいとは思っていなかった。本当にびっくりした。データは分かる。それが掛け算されているのも分かる。でもそこから、どのようにしてAIが複雑な概念を理解できるようになったのか私には分からない。人類はこのメカニズムを理解できるようになるのだろうか」とAltman氏に疑問をぶつけている。
それに対しAltman氏は、「なると思う。100%間違いない」と語っている。
同氏によると、最近の説明可能AIの研究で大きな進展があったようで、その進展が研究者に希望を与え、研究者のあいだで研究意欲がより高まっている状態だという。
またAltman氏はその結果として、人間の脳に対する理解も進歩するだろうとしている。人間の脳は、人工知能と同様に、ニューロンとシナプスで構成されたある種の回路でできている。人間の脳を切り刻むことはできないので、この回路が複雑な概念をどのように理解しているのかは分からない。しかし説明可能AIの研究が進めば、人間の脳がどのように複雑な概念を理解しているのかも分かるようになるだろうとしている。
またAIのメカニズムが解明されることで、AIはさらに進化するだろうとしている。「歴史的に見ても多くの技術は最初は実験の中で偶然発見されて、メカニズムが解明されないまま利用されてきた。しかしいずれメガニズムが解明されていき、それとともに技術はさらに進化してきた」。同様のことがAIでもこれから起こるというわけだ。
今回の記事では、ここまで。二人の偉大な経営者の議論はこのあとも続くので、ぜひオリジナルのポッドキャストにアクセスし、AIの現状と近未来の様子を探っていただきたいと思う。