
Pentagon unveils toothless ethical principles for using AI in warという記事を読んで。
米国防総省が、AIを軍事利用する上での倫理上の5つのガイドラインを発表した、という記事。
ダイドラインには、例えばこんなことが書いてある。
AIを活用する上で、「適切なレベルの判断と取り扱いを実行するようにしなければならない」。
「適切なレベル」って何?
いかようにも解釈できる非常に曖昧な表現だ。
こんな感じで、ガイドライン全体が曖昧な表現で埋め尽くされている。
以前、GoogleのAIが米軍に導入されるのは、Googleの「悪いことはしない」という社是に反するとして、Google社内で大反発があった。
AIを開発するシリコンバレーの人たちは、自分たちの開発した技術が人殺しに使われたくないのだろう。
でも一方で米軍にしてみれば、米国だけがAIを軍事利用しなくて、仮想敵国がAIを軍事利用すれば、パワーバランスが崩れ、米国にとって非常に不利な状況になる。
こうしたジレンマがあるので、このような曖昧な表現になったんだろうなって思う。
それにどこまでがAIなのかという線引きも難しい。すべての研究者、開発者が同意するAIの定義などなく、AIって「人間っぽい動きをする最先端コンピューターテクノロジー」というような意味で使われることが多い。そういう広い意味なら、何もかもAIになってしまう。
結局、国内で殺人すれば犯罪者として扱われるのに、戦争で殺人すればヒーローになる、ということ自体が、最大の矛盾。
だれもが納得するような整合生のある結論なんて出ないんだろうなって思う。
やっぱりAIの軍事利用って避けられないのかも。この記事を読んで、そんなふうに感じた。

湯川鶴章
AI新聞編集長
AI新聞編集長。米カリフォルニア州立大学サンフランシスコ校経済学部卒業。サンフランシスコの地元紙記者を経て、時事通信社米国法人に入社。シリコンバレーの黎明期から米国のハイテク産業を中心に取材を続ける。通算20年間の米国生活を終え2000年5月に帰国。時事通信編集委員を経て2010年独立。2017年12月から現職。主な著書に『人工知能、ロボット、人の心。』(2015年)、『次世代マーケティングプラットフォーム』(2007年)、『ネットは新聞を殺すのか』(2003年)などがある。趣味はヨガと瞑想。妻が美人なのが自慢。