これが解決されればビジネスが変わる。最新AI研究トレンド7選

AI新聞

未来予測として定評のある米Future Today Instituteが出した2018 Tech Trends Reportは、AIビジネスに関する話題が中心になっているのだが、その中でAIの技術的なトレンドにも言及している。僕自身、技術的なことはあまり分からないので、株式会社エクサウィザーズの執行役員で、理化学研究所 革新知能統合研究センター (AIP) 客員研究員でもある遠藤太一郎さんに詳しく教えてもらうことにした。

とりあえずFuture Today Instituteが挙げるAIの技術トレンドの中でも、僕が個人的に気になった7つのトレンドについて、詳しく話を聞いた。

 

説明可能なAI


ーーAIって中身がブラックボックスなので、活用できないビジネス領域がある、という話を耳にしたことがあります。具体的にはどういうことですか?

遠藤 例えば、ローンの審査にAIを使うべきかどうか、という問題があります。担当者である人間が判断するのなら、お金を貸せないと判断した場合、なぜ貸せないのかを顧客に説明できます。お金を借りるほうの顧客も、貸してもらえないのなら、なぜ貸してもらえないかを聞いてみたいですよね。

ーーそれはそうですね。

遠藤 でも今のAIにローンの可否を判断してもらうと、可否の判断はできるんだけど、人間が途中の計算式を見ても、なぜAIがその判断を下したのかがまったく分からないんです。

ーーなるほど。例えば画像認識のディープラーニングの途中の隠れ層と呼ばれる部分のデータを見ても、なぜコンピューターがそういう計算をしているのか人間にはまったく理解できないですものね。でもその画像が何なのか、最終的には正解を弾き出してくるので、まあいいか、ってなる。画像認識ならそれでよくても、ローンの可否なら判断理由を知りたいですよね。

遠藤 なので、説明可能なAIって、今もっともホットな研究領域になってるわけです。世界的な人工知能の学会Neural Information Processing Systems (NIPS)などでも話題になってますね。


ーーどの程度、判断基準を説明できるようになってきているのですか?

遠藤 いや、まだまだって感じです。ただ幾つかおもしろい手法が出て来ています。例えばLIMEと呼ばれる手法などでは、複雑なモデルを線形モデルで説明することができます。線形モデルにすれば、どの項目が効いてAIが答えを出したのか、直感的に理解が可能になります。こうした手法の精度が上がれば、これまでAIの導入に二の足を踏んでいた企業などが、一挙に導入に踏み切る可能性がありますね。

ーーなるほど、さらにAIの普及に拍車がかかるわけですね。

 

データ改ざん問題


ーーデータの改ざん問題って、どうしてそんなに重要なんですか?

遠藤 ご存知のように、AIってデータがすべてです。どれだけアルゴリズムが優れていても、間違ったデータを入力すれば、間違った答えが出力される。データが改ざんされれば、すべてが水の泡。改ざんされないデータの保管、送信方法が重要になるわけです。湯川さんもAI新聞で取り上げることが増えている、ブロックチェーンなどの技術で解決できるかもしれないですね。

ーーそうですね。これまでのインターネット上のデジタルデータって、コピーも上書きも簡単にできました。なので勝手にコピーされたり書き換えされたら困るようなデータを取り扱うビジネスって、まだまだデジタル化されていないものが多い。もし勝手にデータをコピー、改ざんができないような仕組みができれば、もっと多くのビジネス領域がデジタル化され、AIの進化の恩恵を享受できるようになりそうですね。

 

 

アルゴリズムの公平性

 

ーーこれはどういう問題なんですか?

遠藤 過去のデータが特定のグループに不利な内容を含んでいると、意図しなくても不公平な扱いになる、という問題です。

ーーん?例えばどんな問題ですか?

遠藤 例えば、社長さんと秘書の写真をいっぱい集めてきてAIに学習させるとします。それで新しい写真を持ってきて学習済みのAIに見せて、その写真が社長か秘書かを予測させるわけです。そうすると、AIは男性の写真なら社長と答え、女性の写真なら秘書と答えるかもしれません。

ーー過去のデータは、男性の社長、女性の秘書というデータが圧倒的に多いからですね。

遠藤 そうなんです。女性社長の写真を見せても、AIは秘書と判断してしまう。

ーーもし社長への対応と秘書への対応が異なるようにプログラムされた執事ロボットがいるとしたら、女性社長に対して失礼な対応をしてしまうかもしれませんね。

遠藤 そうなんです。ほかにも検索エンジンで犯罪者の名前を検索すると、アフリカ系の場合犯罪歴の調査の広告が表示される。同じような犯罪を犯した人でも、アフリカ系苗字を持つ人のほうが目立ってしまうわけです。

ーーなるほど。では、この問題に対してどのような解決策がありますか?

遠藤 例えば人事採用AIだったら、公平性をアルゴリズムの中に入れてしまうわけです。もし人種や性別が不公平な結果につながるのであれば、人種や性別を考慮に入れないアルゴリズムにするということです。このほかにも、社会通念や法律をアルゴリズムに組み込もうという動きが盛んになってきています。

 

リアルタイム機械学習


遠藤 リアルタイム機械学習は、同じモデルを長年使っていると劣化してくるので、最新のデータを考慮してモデルを作り直す手法です。昔からある手法で、Amazonのレコメンデーションエンジンなどもこうした手法だと思います。

ーー新しいデータが出るたびに学習し直すのであれば、時間と電力がかかり過ぎませんか?

遠藤 ですので一からすべて学習し直さなくても、部分的にモデルを更新するような仕組みになっているわけです。

ーー継続的学習、リアルタイム機械学習が昔からある手法ということですが、昔からあるのにどうして今またホットな研究分野になっているわけですか?

遠藤 データの量、応用分野が増えてきているからでしょうね。より効率的にモデルをアップデートする手法が求められているのだと思います。
【参考情報】ビッグデータ時代の機械学習アルゴリズム:オンライン学習

 

階層的強化学習


ーー階層的強化学習ってどんな手法なんですか?強化学習って、飴と鞭を設定しておいて、あとはAIに自分で試行錯誤させて学習させる方法ですよね。自動運転の強化学習なら、シュミレーターの中で、レーシングカーが速く走れればポイント増、衝突すればポイント減と設定しておいて、レーシングカーに試行錯誤させて、どんな風にハンドルを切ってアクセル、ブレーキを踏めば、衝突せずに速く走れるかを学習させる方法ですよね。

遠藤 そうです。レーシングカーのシミュレーションの例では分かりにくいですが、普通一連の動作って幾つかの動作ブロックに分けられます。例えば、跳び箱を飛ぶという動作なら、助走をつけるという動作ブロック、踏み台の上でジャンプするという動作ブロック、跳び箱の上を手で叩くという動作ブロック、跳び箱を飛び越えるという動作ブロック、着地するという動作ブロック、などに分けられます。それぞれのブロックで強化学習し最適化したものを、最終的に組み合わせる。階層的強化学習って、そんなイメージです。


【参考情報】Learning a Hierarchy

マルチタスク学習

【参考情報】マルチタスク学習

ーーマルチタスク学習って何ですか?複数のことを同時にするということですか?

遠藤 まあそうですね。普通AIって1つのタスクしかしないように設定されてますよね。例えば画像認識のAIなら、写真を見せれば、それが犬なのか猫なのか、人間なのか、建物なのかを認識し分類します。マルチタスク学習なら、分類だけではなく他のタスクも同時にしてくれます。

ーー例えば?

遠藤 例えば画像認識の場合は、1つのAIが、ピントが合っていない写真を除外するタスクと、分類のタスクの2つを同時にやってくれるというイメージですね。

ーー具体的にはどんな仕組みになっているのですか?

遠藤 画像認識AIの場合、ネットワークを特徴抽出の層と分類の層に分けることができますよね。

ーーはい。例えば顔認識の場合、特徴抽出の層には、点や線、エッジなどを認識する層、次に点や線を組み合わせて目や鼻といった部品を認識する層、次に目や鼻を組み合わせて顔全体を認識する層などがあって、一人一人の顔の特徴を掴むわけですね。特徴を掴んだら、それがAさんなのか、Bさんなのかを分類する。大きく分けると特徴抽出の層と分類の層があるわけです。

遠藤 そうです。マルチタスク学習では、特徴抽出の層はそのままなんですが、そこに分類のタスクの層、ピントが合ってない写真を除外するタスクの層など、2つ以上のタスクの層がくっついているわけです。

ーーなるほど。ほかにどのような例がありますか?

遠藤 自動走行のための画像認識では、1つの画像を見せれば、その画像のどの部分が道路で、どの部分が建物、どの部分が道路標識であるかを分類するタスク、標識は制限速度の標識なのか駐車禁止の標識なのかを分類するタスク、写っている物体の距離を測るタスク、などを同時にこなすことができます。

また複数のタスクを出力とした学習をさせていると、1つのタスクで学んだことを別のタスクで利用できるというメリットも、マルチタスク学習にはありますね。

ーー標識として分類された部分のデータを、何の標識かを分類するタスクでも利用できるということです。

遠藤 そうですね。マルチタスク学習は、既によく使われる手法です。これからは自動走行だけではなく、いろいろな用途に利用されていくのだと思います。

 

敵対的機械学習


ーー敵対的機械学習って、最近話題になっているGAN(敵対的生成ネットワーク)のことですか?

遠藤 いえ、違います。ごまかそうとする側と、それを見破ろうとする側が存在する、というところは共通していますが。

ご存知のようにAIによる画像認識の方法と、人間による画像認識は、やり方が微妙に異なっていて、人間にとっては「パンダ」の写真を、AIが「テナガザル」と判断してしまうことがあるんです。それが今日の画像認識の大きな課題の1つなんですが、その問題を解決しようとして、NIPS(編注:世界的なAIの学会)で、ノイズを加えてAIを騙そうとするコンペと、それを見破ろうというコンペが同時に開催されているんです。そうした試みのことが、敵対的機械学習と呼ばれています。

画像認識のこの課題は、大きな危険性をはらんでいて、例えば自動走行車の画像認識に小さなノイズを送りつけることで、道路標識を別の標識と誤認識させてしまえば、大きな事故につながることだってあります。なのでこうしたことを防ぐために、盛んに研究が行われています。

【関連情報】
はじめてのAdversarial Example

NIPS’17 Adversarial Learning Competition に参戦しました

 

湯川鶴章

AI新聞編集長

AI新聞編集長。米カリフォルニア州立大学サンフランシスコ校経済学部卒業。サンフランシスコの地元紙記者を経て、時事通信社米国法人に入社。シリコンバレーの黎明期から米国のハイテク産業を中心に取材を続ける。通算20年間の米国生活を終え2000年5月に帰国。時事通信編集委員を経て2010年独立。2017年12月から現職。主な著書に『人工知能、ロボット、人の心。』(2015年)、『次世代マーケティングプラットフォーム』(2007年)、『ネットは新聞を殺すのか』(2003年)などがある。趣味はヨガと瞑想。妻が美人なのが自慢。

  • Home
  • AI新聞
  • これが解決されればビジネスが変わる。最新AI研究トレンド7選

この機能は有料会員限定です。
ご契約見直しについては事務局にお問い合わせください。

関連記事

記事一覧を見る