Pentagon unveils toothless ethical principles for using AI in warという記事を読んで。
米国防総省が、AIを軍事利用する上での倫理上の5つのガイドラインを発表した、という記事。
ダイドラインには、例えばこんなことが書いてある。
AIを活用する上で、「適切なレベルの判断と取り扱いを実行するようにしなければならない」。
「適切なレベル」って何?
いかようにも解釈できる非常に曖昧な表現だ。
こんな感じで、ガイドライン全体が曖昧な表現で埋め尽くされている。
以前、GoogleのAIが米軍に導入されるのは、Googleの「悪いことはしない」という社是に反するとして、Google社内で大反発があった。
AIを開発するシリコンバレーの人たちは、自分たちの開発した技術が人殺しに使われたくないのだろう。
でも一方で米軍にしてみれば、米国だけがAIを軍事利用しなくて、仮想敵国がAIを軍事利用すれば、パワーバランスが崩れ、米国にとって非常に不利な状況になる。
こうしたジレンマがあるので、このような曖昧な表現になったんだろうなって思う。
それにどこまでがAIなのかという線引きも難しい。すべての研究者、開発者が同意するAIの定義などなく、AIって「人間っぽい動きをする最先端コンピューターテクノロジー」というような意味で使われることが多い。そういう広い意味なら、何もかもAIになってしまう。
結局、国内で殺人すれば犯罪者として扱われるのに、戦争で殺人すればヒーローになる、ということ自体が、最大の矛盾。
だれもが納得するような整合生のある結論なんて出ないんだろうなって思う。
やっぱりAIの軍事利用って避けられないのかも。この記事を読んで、そんなふうに感じた。