「Google相手に戦う!?せいぜい頑張れよ。じゃあな」。米シリコンバレーのAIスタートアップPerplexityのCEO、Aravind Srinivas氏は、自分の事業計画がほとんど誰からも相手にされないのは分かっていた。それでもAI研究者として、この領域に挑戦したい。そう考えた。
AIの進化を受けて、情報検索の方法がこれまでと大きく変わろうとしている。検索エンジンの結果ページに表示されたリンクの中から、自分の問いに関連ありそうなものを順番に当たっていかなくても、ChatGPTに質問をぶつければ答えが直接返ってくる。情報検索の新時代の幕開けだ。
数人で始めたチャット型AIのPerplexityはなかなかの評判で、利用者も急増していた。大きな資金調達をして事業を加速させよう。でもその前にシリコンバレーの有力者たちに相談して回った。ほとんどの人の意見は「そろそろ1つの業界に絞って、その業界専門の情報検索ツールを目指すべき」というものだった。1つの業界に特化すべきか。Googleを敵に回してでも、どんな質問にでも答えることのできるツールを目指すべきか。1つの業界だけを攻めるという垂直の戦略か、すべての業界を攻める水平の戦略か、という選択だ(36:13)。「正直、悩んだ」とSrinivas氏は言う。
そんな中、一人だけ多くの人と真逆のアドバイスをくれた人がいた。史上初ブラウザで一世を風靡したネットスケープの創業者で、著名ベンチャーキャピタリストのMarc Andreessen氏だ。「垂直戦略で行くと失敗は確定だ。水平戦略でも失敗する可能性は高い。でも失敗が確定するわけじゃない」(37:13)とAndreessen氏は語ったという。
Andreessen氏によると、Googleの成功を受けて、業界や領域に特化した検索エンジンが無数に出てきた。しかし特化型検索エンジンはことごとく失敗した。生き残っているのは、コミュニティや使い勝手など、検索エンジン以外の部分を工夫し、価値を作り出したところだと言う。検索対象領域を狭めることで、検索エンジンとしての性能は低下した。他の領域との境界部分の情報をうまく検索できなくなり、結局特化型検索エンジンの利用者が減る結果になったようだ。
自分の情熱はどこにあるのか。注力したい特定の領域があるのか。それとも情報検索に注力したいのか。AIを研究してきたのだから「情報検索の仕事をしたい」。そう思って、Googleという巨人が存在する領域にあえて踏み出したのだと言う。
ChatGPTを開発したOpenAIは、ChatGPTの基盤となる大規模言語モデルの改良に力を入れている。基盤モデルを活用したアプリの1つに過ぎないChatGPTの改良には、それほど興味がないように見える。Googleのようにリンクを表示するだけでもユーザーに優しくないし、かと言ってあらゆる問いに対してすべて文章で答えるのも違う。スポーツの結果や株価などの情報は、文章よりも表やグラフを提示するほうが分かりやすいだろう。「情報提供の最良の方法を日々探し続ける必要があるんだ」(3:07)と同氏は語る。そうすることでGoogle検索やChatGPTよりも、ユーザーにとって使いやすいサービスを作れるのではないか。そう考えた。
ユーザーにとっての価値がすべてなので、自社開発の大規模言語モデルにはこだわらない。今はオープンソースのモデルを改良するなど実験を繰り返す一方で、OpenAIの最新の大規模言語モデルGPT-4や、GPT-4を超えたと話題のAnthropic社の最新大規模言語モデルClaude3なども早速取り入れている。ユーザーからの問いの理解には、こうした大規模言語モデルを利用し、それ以外のタスクにはオープンソースの中規模モデルを改良したものなどを組み合わせて使っているという。ネット上では大規模言語モデルの開発競争に参加しないので、技術力の劣るAIスタートアップのように揶揄されることがあるが、技術開発競争をするよりも、いいサービスをユーザーに提供したいのだと言う。
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
以上、Perplexity CEO: Disrupting Google Search with AI(https://www.youtube.com/watch?v=57LqvutrOI8)というインタビュー動画を物語風にまとめました。
このほかにも以下のような興味深い発言がありました。
【Perplexityは、wikipediaとchatGPTの子供】
作りたいのは、Wikipediaのような情報の中から、ユーザーに興味のある部分だけを、自然な言葉で文章にしてくれるサービス。情報の中からユーザーが欲しいものだけを表示する。例えばWikipediaで映画スターウォーズのことを調べようとすると、Wikipediaのスターウォーズのページ上には、これまでの作品のあらすじから俳優、興行成績、関連ゲーム、登場キャラクター、劇中用語など、あらゆる情報が載っている。ユーザーはあらすじだけに興味があるのかもしれない。Wikipediaのページから欲しい情報を探し出すよりも、ユーザーが欲しがっている情報だけを答えてあげるほうが親切。「それができれば、世界の人気サイトの5本の指に入ることができるはず」という。Googleに挑んでいるようなイメージが強いが、「それができればGoogleを倒す必要がない」(6:10)という。
【Google誕生の背景と、今のジレンマ】
AI技術の中でも自然言語処理技術は、文章を理解して、文章を生成できる技術。検索エンジンは、本来なら自薦言語処理技術を利用すべきサービスだ。ところがGoogleが誕生した当時は、自然言語処理技術がまだまだ十分に発達していなかったので、Webページ上の情報の意味や重要性をAIが理解できなかった。そこでGoogleの創業者たちは、自然言語処理技術でWebページの重要性を測るのではなく、そのWebページにどれだけ多くのリンクが貼られているかで重要性を測ることにした。価値のあるWebページなら他のWebページから数多くリンクを貼られているはず、という考え方だ。
これが大成功。Googleは巨大企業に成長した。
ところが自然言語処理技術がここにきて急速に進化してきた。リンクの数で重要性を判断しなくても、AIは何が重要なのかを理解できるようになり、重要な情報をまとめて文章を生成することも可能になった。ユーザーは、検索結果のページ上のリンクを順番にクリックしてそのページに飛ばなくても、チャット型AIが質問にダイレクトに答えてくれるようになったわけだ。明らかにそのほうが便利だ。検索エンジンからアンサーエンジンへと時代へ移行しようとしている。
それでもGoogleはリンクベースの検索エンジンにこだわる。
「プロダクトの観点で言えば(リンクではなく)直接答えを提示することが正しいと分かっていても、Googleは株価の観点からそれができないでいる」(2:59)とSrinivas氏は指摘する。
Googleは、広告主のページへのリンクが表示されたり、ユーザーがそのリンクをクリックすることで収益を得ている。チャット型AIでは、ユーザーはリンクをクリックしない。広告収入が入ってこなくなる。なのでGoogleは、OpenAIやPerplexityのようにチャット型AIに全力で向かえないわけだ。いわゆるイノベーターのジレンマという現象だ。「Googleの目指しているものとユーザーの求めるものが一致していない」(0:36)とSrinivas氏は言う。
リンクベースの検索エンジンからアンサーエンジンへと移行する中で、Googleは収益モデルをどう変えてくるのだろうか。検索連動型広告を続けながらも、別の収益源を探すしかないとSrinivas氏は言う。OpenAIがやっているような、エンドユーザー向けのサブスクモデルもそうだし、企業向けのAPI利用料金もそうだが、収益になりそうな事業を片っ端から試していくしかない、とSrinivas氏は言う(12:47)。「Googleが大胆な戦略転換に出るかどうかは分からない。でも僕の勘では、GoogleはOpenAIなど他社が試して成功した方法を真似てくるだけではないかと思う」(13:29)。
【検索連動型の次のビジネスモデル】
今の多くのAIサービスのビジネスモデルは、月額20ドル程度のサブスクリプション収入と、従量制のモデル利用料だ。これがAI時代のビジネスモデルなのだろうか。
Srinivas氏は「No」と言う。
ネット上で成功したビジネスモデルはどれも、パフォーマンスベース。Googleの検索連動型広告も、Facebookのインプレッション広告も、利用件数が多ければ多いほど儲かるような仕組みになっている。「(そういうビジネスモデルを)見つけることができれば、より大きな収益を得ることができると思う」(34:45)。どこがいち早く、そういうビジネスモデルを見つけることができるのだろうか。アンサーエンジンに消極的に取り組んでいる企業より、積極的に取り組んでいる企業の方が、新しいビジネスモデルを見つけ出す確率が高そうだ。
一方でSrinivas氏は、OpenAIはサブスクモデルで十分に収益を上げていると指摘する。「OpenAIのサブスクモデルは既に成功しているという話を耳にした」。会社全体で見ればOpenAIはまだ赤字企業だが、リサーチ部門と、製品部門で会計を別にすれば、製品部門は既に黒字になっているはずだと言う。資金力にものを言わせた開発競争が続いているので会社としては赤字だが、OpenAIのサブスクからの収益は、米国のネット大手のDoor DashやUberよりも大きなビジネスになっているはずだと言う(35:22)。
【大規模言語モデルの勢力図】
大規模言語モデルの開発競争の先頭集団は、今のところOpenAI、Anthropic、Mistral、Google。それにX.aiが入ってくるかも、といった感じ。
「先頭集団が3社か4社というのは間違いない。しかしそのダイナミズムは流動的。OpenAIがリードするのか、抜きつ抜かれつの関係なのか。MetaがオープンソースのモデルでOpenAIやAnthropicのビジネスの邪魔をするのか。そういうところが不透明」(54:39)
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
このほか少し専門的になりますが、次のような発言もありました。
【RAGの使い方が重要】
Perplexityでは、既にYelpやshopifyなどからデータを提供してもらうライセンス契約を結んでおり、今後もデータ提供者との連携を進めていくという。(40:00)
C向けはデータを厳選し、ライセンス契約を結んでいる。
B向けは、データの重要度を決めるのが大変。社長の訓示を優先するのかどうか。どのレベルの社員にどの程度の情報を開示するのかという問題もある。
【Perplexityが利用しているモデル(55:13)】
独自モデルの訓練をしている。使っているのはMistralのモデルをファインチューニングしたもの。X.aiのモデルでも実験している。Mistral 7BやGemmaなどの小規模のモデルをほかの部分に使っている。GPT-4やClaude3などの大規模モデルは受けた質問の理解に使っている。それで写真を生成すべきか動画や文章を生成すべきかを決めて、分類器にかけて、質問を作り直して、より詳しい情報にする。そうした部分はオープンソースを改良したものを使っていてる。
【計算資源かブレークスルーか(1:03:10)】
AIの進化に必要なのは「計算資源だ。でもトランスフォーマーのようなGPUを有効活用できるようなブレークスルーも求められている。どんなブレークスルーかというと、モデルが自分で考えられるというようなブレークスルー。自分で実験をデザインし、実験し、結論を導き出すまで何度も新しい実験を繰り返す。そんなモデル。今は学習と推論が別々だけど、学習と推論が合体したようなモデルが次世代のモデルだと思う」