道具や技術は、人を幸せにも不幸にもできる。ハサミでも原子力でもそれは同じで、その効力が大きい道具ほど悪いことに使われると被害も大きくなる。GoogleのCEOのサンダー・ピチャイ氏は、AIは人類にとって火や電気よりも人類に大きな影響を与えるだろうと語っている。そこまで大きな影響を人類に与えるというAIを使って、人間の倫理観を高めることはできるのだろうか。倫理なきAI の発展が人類を滅亡に導くと指摘される中、株式会社エクサウィザーズ取締役社長の石山洸氏に倫理に対するAI の可能性について聞いてみた。
囚人のジレンマを数理モデルに
ーーAIって進化すると危険だという意見があります。AIを使って世界を征服することが可能になるかもしれないからです。なのでAIを進化させるのであれば、AIの進化に伴って人類も進化しないといけないと思うんです。特に倫理観を高めていく必要があると思うんですよね。
石山 そう思いますね。
ーーでも倫理観ってどうやれば高めることができるんでしょうか。何かAI自体が人間の人格成長に寄与するようになるのではないかなって、漠然と考えています。そういうことって可能でしょうか?ずばり聞きますがAIは人間の倫理観を高めることができますか?
石山 直球ですね(笑)。できるような気はします。ただ倫理観って定義が難しく、定義が難しいものを数理モデルに落とし込むことは非常に困難です。なのでまずは倫理観の一部、信頼関係についてモデル化できないだろうか考えています。
ーーモデル化できるんですか?
石山 「囚人のジレンマ」という話をご存知ですか?囚人のジレンマのようなよく知られた概念からモデル化を始めて、徐々にAI的な要素を入れながら拡張して考えると、わかりやすいかもしれません。
ーー二人の囚人に自白を迫るという話ですね。
石山 そうです。二人の囚人を別々の独房に入れておいて、それぞれを別々に尋問するんです。その際に「お前が相棒のやったことを教えてくれれば、お前の罪は許してやろう」とオファーするわけですよ。
ーー二人がともに黙っていれば罪に問われないかもしれないのに、相手が自白して自分が自白しないと自分だけが損をする。相手との信頼関係を信じるべきか信じないべきか。まさにジレンマですね。
石山 互いを信頼していると、やったことはバレずにすむ。信頼していないと、互いに密告し合って最悪の事態に陥るんです。
この研究の延長で、TMS(経頭蓋磁気刺激法)を囚人のジレンマと組み合わせた研究があります。TMSは現在、うつ病の治療にも活用されていて、磁気を脳の扁桃体の部分に当てると、うつの症状が緩和すると言われています。この研究では、囚人のジレンマのようなシチュエーションを作って、TMSで磁気を当てた人と当てなかった人の間で協調関係がどう変化するかを調べたそうなんです。実験の結果を言うと、TMSを扁桃体に当てると、囚人のジレンマで有意に協調関係が増えたらしんです。
ーーおもしろいですね。TMSという脳への磁気の直接的な刺激が、「協調したい」という意思を生み、人との関係性を変えたわけですね。
石山 そうです。脳への刺激は「生物学的(バイオ)」、意識の変化は「心理学的(サイコ)」、人との関係性は「社会学的(ソーシャル)」なものですが、バイオの刺激がサイコ、ソーシャルに変化を与えたわけです。
バイオ、サイコ、ソーシャルの境を超えて
ーーなるほど。バイオ、サイコ、ソーシャルをデータ化できるのであれば、機械学習を使えば3つの領域の相関性が分かりますね。
石山 そうなんです。またTMSの刺激でなく、マインドフルネスだったら、どのようなデータが取れるのか。或いは、弊社でも推進している認知症ケアの手法「ユマニチュード®︎」を活用したらどうなのか。TMS以外の介入方法が、協調を生むかどうかを定量的に評価していくことが可能になります。つまり、バイオ・サイコ・ソーシャルなデータをどんどん取得して、機械学習を用いて協調や裏切りについて科学することができるわけです。当然、磁気刺激で協調関係が向上するというと怖い感じがしますが、瞑想や身体性を伴うコミュニケーションで同じような効果が得られるなら受け入れやすいかも、というような導入面での倫理的な観点についても検証していくことができます。
ーーバイオ、サイコ、ソーシャルの領域をAIで解明するのって、おもしろい話ですね。今までは、生物学の研究は生物学の領域だけで、心理学は心理学の領域だけで、社会学は社会学の領域だけで研究されていたものが、学問の境界線を超えることができるわけですね。
石山 その通りです。バイオに刺激を与えてサイコ、ソーシャルがどう変化するかという方向だけではなく、逆も可能です。サイコの変化がバイオ、ソーシャルのデータにどう変化を与えたか、ソーシャルの変化がバイオ、サイコをどう変化させるのか、など、いろいろ解明できます。
ーーサイコの変化がバイオにどう影響を与えたかって、どう測れるのですか?
石山 唾液内のオキシトシンを測定するなど、いろいろな数値を取れます。サイコやソーシャルの数値はアンケートでも取れるでしょうし、別の方法でもいくらでも取れると思います。
ーーデータが取れれば機械学習でいろいろなことができそうですね。サイコ、バイオ、ソーシャルのデータのうちの1つが欠如していても、別のデータから数値を予測できますからね。
石山 もちろんそうしたことも可能ですし、囚人のジレンマ以外でも他の社会的規範や倫理的な問題についても解析できるようになると思います。また囚人やプレーヤーの数を二人からn人に拡張していけば、より広範囲での社会課題を取り扱えるようになっていくわけです。つまり、どういう介入で、どういう倫理的効果が生まれるのかをデータ・ドリブンで解明できるんです。
人工知能が解明する日本の倫理観
ーー倫理観の研究って文化によって内容が異なってきそうですね。東洋は東洋の倫理観の形成プロセスがあったでしょうし、キリスト教やイスラム教などの文化圏でもそれぞれ独特の形成プロセスがあると思います。そういう意味で、日本は東洋的な倫理観の研究に着手すれば、世界的に見てもおもしろいものができそうですね。
石山 そうですね。日本人の倫理観に深い影響を与えているもの一つに儒教がありますが、儒教の教えの中には、バイオ、サイコ、ソーシャルの関連性について説いているものがあります。例えば儒教における「仁」という概念は、孔子がその中心にすえた倫理規定。漢字では「ニンベン」に「2」と書くくらいで、人と人との間のあるべき人間関係を規定しており、英語では「Goodness」と翻訳されます。一方で、この抽象的な仁という概念を具体的に実現する方法が、行動様式としての「礼 = Ritual」で、いわゆるマナーのようなものです。この「仁」と「礼」というものの関係については、古くから強調きたわけです。
ーーなるほど「礼」は行動なので「バイオ」、「仁」は人間関係なので「ソーシャル」、「仁」を「goodness」とみなせば「サイコ」とも考えられることができますね。
石山 ただこれまで、仁や礼という概念は、データで可視化されてこなかった。なので、どういうメカニズムになっているの分かりにくかったのですが、囚人のジレンマの事例で見てきた通り、AIを倫理研究に利活用することで、どのような行動様式をとった時に、どのような人間関係になったのか、その因果関係が説明できるようになります。つまり、倫理の世界がエビデンス・ベースドになるわけです。
ーー武道や、茶道、華道など、日本の「道」がつく文化には、形から入るものが多いですものね。わけがわからない動作も多い。それでも、理由を聞かずに、とりあえず形を真似する。形を繰り返す中で、いつのまにか人格を高めたり、悟りに近づいたりできる。そう信じて形を真似することが多い。まあデータを取って因果関係を説明することができなかったので、ただ真似するしかなかったと思うんです。でもAIを使うことで、そうした因果関係が解明されるかもしれないわけですね。
人工知能から影響を受け、乱世の時代に発展する倫理学
石山 解明するだけではありません。新しい倫理の形をAIが提案してくれるようになるかもしれません。紀元前から時間をかけて発展してきた囲碁の世界では、人工知能を使って新しい定石を発見することができました。
ーーAlphaGOが韓国の囲碁のチャンピオンを打ち負かした話ですね。ドキュメンタリー映画を見たのですが、中盤戦でAlphaGOが打った手を見て、実況中継していた評論家たちが一斉に「AlphaGOが打ち手を間違った!」と叫んでいました。だれも見たことがない手を打ってきたので、仕方がないかもしれません。でも結局はその打ち手が決め手となりAlphaGOが勝利してしまいます。AlphaGOは自分自身と何百万回も対戦することで、これまでの定石にはないような打ち手を見つけてきたわけです。試合後の記者会見で、チャンピオンのリ・セドル氏が「AlphaGOの打ち手は斬新だった。AIにはクリエイティビティがないと思っていたが、クリエイティビティがないのは、何千年も同じ定石だけを研究してきた人間のほうだ」と語っていたのが印象的でした。
石山 そうですね。囲碁と同様に儒教は紀元前に生まれました。紀元前500年頃、春秋・戦国時代という乱世の時代において、戦争を失くすための倫理感として生まれてきたわけです。まさに、今、再び乱世の時代が起きようとしているこの時代に、エビデンスベースの倫理でどのように、新しい倫理の定石を科学的に見つけるのか。孔子2.0でないですけれども、21世紀の乱世の時代に「人工孔子」をどのようにバージョンアップして復活させるのか。人工知能を科学兵器に活用しないという受動的な姿勢ももちろん大事ですが、ビッグデータとAIを利活用しながら、新しい倫理の可能性を実証実験を通じてデザインしていくという能動的な姿勢も、人工知能の研究者の役割と言えるのではないでしょうか。
ーープーチン大統領が、「AIを牛耳ったところが世界を征服する」とかいうような発言していましたね。イーロン・マスク氏らがその話をtwitterで拡散してました。イーロン・マスク氏らが中心になって、倫理観を持ってAIを使おうというような運動が起こっていますが、もっと積極的に何かできるのではないか。新しい時代に合った倫理観を、AIを使って形成していくことができるのではないか、というお話ですね。めちゃくちゃ斬新な考えですね。こうした研究を通じて国際的な紛争を解決できたり、第3次世界大戦を回避できればいいですね。イスラム国などの問題を見ても、結局は時代遅れになった異なる倫理観同士の衝突という見方もできますし。
石山 哲学者のスピノザは『エチカ』という本を書いているのですが、エチカというのはラテン語で”Ethica”と書き、英語では”Ethics”で、日本語の倫理にあたります。この倫理学の古典の名著の一冊の副題は「幾何学的秩序に従って論証された」で、ユークリッド幾何学から影響を受けていました。その後、脳科学者のダマシオは『感じる脳 情動と感情の脳科学 よみがえるスピノザ』を書いています。つまり倫理学は、歴史的にも数学や脳科学からも色んな影響を受けているんです。そういう視点から見てみると、今の時代に人工知能から影響を受けて倫理学が発展しても、全然おかしくないんです。
「論語と算盤」から「新しい倫理とAI」へ
ーーただ一つ心配なのは、どこかの国家が国民をコントロールするために、この倫理観のモデルを使う可能性もありますよね。
石山 そうなんです。その可能性はあります。儒教や宗教も過去の為政者たちによって自分たちの都合のいいように内容を変えられましたから。
ただ倫理観の形成過程が可視化されるので、そのデータを見ながらどういう倫理観がいいのかをボトムアップにデザインしていくことが可能になると思います。それが過去の倫理観の形成方法とは決定的に異なる点だと思いますよ。
ーー研究分野としては大変おもしろそうなんですが、社会を変えていくためには研究成果を技術やビジネスに落とし込んで、世の中に広めて行く必要があると思うんです。AIをベースにした倫理の研究って、どのようにビジネスにしていけるのでしょうか?
石山 Yコンビネーターがベーシックインカムの社会実験を始めたというニュースがありますが、同じように、「エビデンス・ベースド倫理」の枠組みについても、アントレプレナー達が立ち上がってボトムアップに社会実験を展開していけると思います。
日本のアントレプレナーシップの祖である渋沢栄一も「論語と算盤」という本を書いているくらい儒教から影響を受けた人でした。また、日本政府も第四次産業革命という産業革新のスローガンから、Society5.0という社会革新のスローガンへと移行してきています。倫理の世界の人工知能の活用について、市民・研究者・起業家・政府が一丸となれば、日本が世界的なリーダーシップを取れるチャンスがあるはず。
この兆しとして、市民が積極的にコンピューター科学を活用しながら、社会的なエビデンスを能動的に獲得していく”Citizen Informatics”という分野が勃興し始めています。例えば、私も研究している認知症の分野では「The Society of Citizen Informatics for Human Cognitive Disorder」という学会が設立されました。日本語では「みんなの認知症情報学会」という名前なのですが、この「みんなの」という部分は、認知症の当事者も一緒に倫理研究を進めることを意味しています。このようなアプローチ方法は、為政者に利用されないかという心配に対するひとつのヒントになるんじゃないかなと思っています。