« Science 歯髄幹細胞が広げる細胞治療の今後の展望 ⑩ | トップページ | 「殺人の自動化というテクノロジー」―② »

2020年1月 4日 (土)

「殺人の自動化というテクノロジー」―①

久木田 水生(名古屋大学大学院大学情報学研究科准教授)さんは「世界 10」に ~ロボット 兵器の倫理的問題を述べている。コピーペー:

 

<1> はじめに

 近年、人工知能やロボットの発展が目覚ましく、経済や産業を大いに活性化し、私たちの生活をより便利かつ快適にすることが期待されている。その一方、様々な懸念もあっる。例えば、多種多様、かつ膨大な数の自律的なエージェントが複雑に相互作用する中で、予測できない危険な挙動を示すことが危惧されている。また常時ネットワークにつながれた機器をどのようにしてクラッキング(不正侵入)から守るかというのも重要な課題だ。このような事故や事件を未然に防ぐために、あるいはそれらが起こった時に適切に対処するために、技術や制度をどのようにデザインしていくかということが様々なステークホルダーを巻き込んで議論されている。

 しかし人工知能やロボットに関しては、このような具体的な問題のみならず、より抽象的で一般的な倫理的問題についても議論が存在している。一般にテクノロジーの進歩はそれまで不可能だったことを可能にする。その時、しばしばそれまでの倫理原則では対処するのが難しい、新たな倫理的問題が生じることがある。そのためここに「倫理的指針の空隙」が生まれる。この空隙を埋めるために、社会が重視してきた価値に照らして、新しい指針を作り上げる必要がある。

 人工知能やロボット技術の発展もまた、新しい様々な問題を生じさせており、そういった問題について考えるために、現在、「ロボット倫理学」「AI倫理学」と呼ばれる新しい応用倫理学の分野が生まれている。

 そしてそこで盛んに議論されている問題の1つが、人工知能やロボット技術の軍事応用、特に「致死的自律型兵器システム Lethal Autonomous Weapons Systems 」(「自律型兵器」)と呼ばれる兵器システムの是非である。

 自律型兵器とは、人間が関与することなく、攻撃目標を定め、致死的攻撃を行うことができる兵器システムのこととされている。これに関しては2014年から特定通常兵器使用禁止制限条約(CCW、1980年採択)の枠組みの中で、国際人道法などに照らした適法性、兵器検証の方法、開発・配備・運用上のルール、開発・使用の禁止の可能性等についての議論が行われている。

 しかし自律型兵器は、例えば地雷や核兵器と違って、明確に定義することが難しい。かつその中核となる技術が現在、民間において活発に開発が進められている人工知能やロボット技術であるということから、開発の制限や禁止に関して合意に至るには困難が予想される。

 しかしそもそも自律型兵器にはどのような問題があるのだろうか。例えば核兵器や生物兵器に反対する理由は明白である。それらはあまりに大きな破壊力を持ち、またその影響の時空的範囲をコントロールすることが出来ない。それゆえに、これらの兵器を使用することが戦争をより悲惨なものにするだろうということは確実だ。

 一方で、例えば戦闘機、戦車、戦艦、潜水艦などの操作を行う人間を人工知能に置き換えることで、何か重大な悪影響が生じるという原理的な理由が存在するだろうか。言い換えると、人を殺すというタスクを自動化することに倫理的な問題があるのだろうか。ここの内容はこの問題について考えたい。

« Science 歯髄幹細胞が広げる細胞治療の今後の展望 ⑩ | トップページ | 「殺人の自動化というテクノロジー」―② »

日記・コラム・つぶやき」カテゴリの記事