« 「殺人の自動化というテクノロジー」―① | トップページ | 「殺人の自動化というテクノロジー」―③ »

2020年1月 5日 (日)

「殺人の自動化というテクノロジー」―②

続き:

 

<2> 自律型兵器に反対する典型的な理由

 自律型兵器に反対する根拠として良く挙げられるのは以下のような論点である。

(a) 国際法違反:国際人道法は非戦闘員に対する攻撃を禁じており、また非戦闘員に対する付随的損害は軍事行動の重要性に比べて大きすぎてはいけないということを定めている。しかしながら機械には戦闘員と非戦闘員を適切に区別することができないし、作戦の重要性と付属的損害のバランスを適切に評価することもできない。

(b) 責任ギャップ:自律型兵器は独自の判断で行動を行うので、自律型兵器が戦争犯罪に当たるような行動をとった時に、その責任の所在が不明確になってしまう。

(c) 新たな軍拡競争:自律型兵器は新たな軍拡競争を招く。

(d) テロへの転用:自律型兵器のためのテクノロジーはテロリストにとっても格好の武器になる。

(e) 軍人の徳の崩壊:自分自身の命を危険に曝して戦うのが軍人の徳であるが、自律型兵器はそのような徳の涵養を不要にするため、その崩壊を招く。

(f) 戦争の増加:自律型兵器を使う国は、自国の兵士の命を危険に曝すことがなく、そのために戦争を起こすハードルが下がり、結果として戦争が増加する。

 これらの論点はどれも現実的な重要性を持つものであり、国際社会はこれらの解決に向けて議論と探求を続けていかなければならない。しかしこの文章では「自律的な機械による殺人」それ自体の是非にフォーカスすることを目的としているため、自律型兵器に固有の問題とは言えない(c)と(d)についてはここでは扱わない。

 (a)の「国際法違反」になるかどうかは自律型兵器それ自体の問題ではなく、自律型兵器の性能によってきまる。確かに現状の人工知能、ロボットでは、国際人道法の求める倫理的規範を人間に匹敵する水準で遵守することはできないだろう。しかし自律型兵器が原理的にこの点において人間に敵わないと主張できる確たる根拠はない。ロボット工学者のロナルド・アーキンは、国際人道法などによって課される倫理的制約を、戦場で致死的行動をとるロボットに遵守させるためのシステムを提案しており、「このようなシステムが適切に設計され、付随的損害が顕著に減少するっことが期待される」と主張する。ただしアーキンは積極的に自律型兵器の製造と使用に賛成しているわけではない。もし自律型兵器が作られ使用されるのであれば――そしてそのことは避けがたいとアーキンは考えている――、そのシステムには人間の兵士以上に厳格に倫理的制約を守らせ、非戦闘員、民間人を攻撃することのないようにする仕組みが必要であると言っている。

 (b)の「責任ギャップ」は自律型兵器に固有の問題であり、その上、現状の技術水準に依存する論点でもないが、これは比較的シンプルに解決されうる問題であるように思う。というのも責任の帰属は、多分に制度的に決定される事柄だからである。自律型兵器と言っても、勝手に動き出して人を殺し始めるものではない。軍の指揮系統の何処かに必ずこれを戦闘に配備し、運用することを決定する人間の意思決定者が存在するはずである。

 ほかのどんな兵器の使用とも同様に、自律型兵器の使用に関しても、この指揮系統の中のどかかに私たちは責任を帰属させる必要がある。私たちがしなければならないのは、責任が消失してしまうことを心配することではなく、もし自律型兵器が運用されるならば、それに関して責任を取るべき人間が誰なのかを明確にしておくことだ。

 (e)の「軍人の徳の崩壊」と(f)の「戦争の増加」はどちらも、「自律的機械による殺人」に固有の問題である。

 ここでは特に「戦争の増加」に関連する問題について検討する。

 自律型兵器はいまだ実現していないものの、それは軍事テクノロジーの発展の1つのベクトルの延長線上にあるものと捉えること。ここでは、その発展のベクトルにおいて、「戦争の増加」が予想される懸念どころか、既に進行しつつある現実であり、それだけではなく自律型兵器の導入が悪い意味で戦争の戦われ方を変容させうるということを論じる。

 それに先立って、次節では、既に実用化されているドローン兵器を補助線にしながら、まず自律型兵器とはいかなる兵器であり、どのようなメリットを持つかについて――――――――――。

 

« 「殺人の自動化というテクノロジー」―① | トップページ | 「殺人の自動化というテクノロジー」―③ »

日記・コラム・つぶやき」カテゴリの記事