« A I 兵器―――異次元の危険領域 ③ | トップページ | A I 兵器―――異次元の危険領域 ⑤ »

2019年12月13日 (金)

A I 兵器―――異次元の危険領域 ④

続き:

 

◆科学者たちの警告

 世界の科学者の中には、LAWSの禁止を強く訴える人たちがいる。2018年亡くなったスティーブン・ホーキング博士もその一人だった。

 2019/03/06、放送のNHK「クローズアップ現代+『車いす天才ホーキング博士の遺言』」は、ホーキング博士が残した数々の金言を紹介している。その中で、AIについての「遺言」は以下のようなものだ。

 「AIの潜在的恩恵はとてつもなく大きい。病気や貧困を撲滅できるかもしれない。だがAIは危険も招くだろう。気がかりなのは、AIの性能が急速に上がって、自ら進化を始めてしまうことだ。遠い将来、AIは自分自身の意志を持ち、私たちと対立するようになるかもしれない。超知能を持つAIの到来は、人類史上、最善の出来事になるか、または、最悪の出来事になるだろう」(強調は筆者→津屋)

  AIが人間社会にもたらす可能性に期待を示しつつも、AIが自ら意志を持ち、人間に反乱を起こすようになりはしないのか。その危険性を天才物理学者は強く憂慮していたのだ。

 たしかに、LAWSへの様々な懸念の中で最も恐ろしいのは、AIによる「反乱」かもしれない。AIがこれまでのコンピューターと違うのは、深層学習・ディープラーニングによって自ら進化を遂げる点にある。その結果、AIはいずれ人類の知能を超える「シンギュラリティ=技術的特異点」に達するだろうとの指摘も最近よく耳にする。

 人間なら何年かかっても追いつかないほど大量で複雑なデータを短時間で学習し、人間の想定を超える判断や行動をAIなら導き出せる。チェスや囲碁でAIが奇想天外な戦法で世界チャンピオンを負かして話題になったが、AIが繰り出した一手一手の理由はプロでもよくわからないという。AIは独自の計算によって人間の常識を超える結論を導き出したことになる。

 少々極端で荒唐無稽な例だが、AIに「電力消費を可能な限り削減せよ」という命題をあたえたとしよう。AIはエアコンや電灯などの電化製品を最も効率よく稼働させ大幅な消費電力削減を実現することだろう。人間ならここで目標達成を実感し満足するが、「可能な限り」との命題を与えられたAIは満足することがない。人間の都合や利便性は無視して、さらなる電力消費削減を目指す。

 闘病生活中の人が生命維持に不可欠な様々な医療装置の電力まで使用を制限するかもしれない。最後は、エネルギー消費を決して止めない人間の存在そのものが「省エネ」を阻む要因と判断し、「人間を排除する手段」を実行していくかもしれない。勿論人間がこの「反乱」に気づけば直ちにAIを停止させるだろう。

 しかし、その判断の一切の過程がブラックボックス化されて見えず、突然「その手段」が実行されたなら、対応は困難かもしれない。

 このことを軍事に置き換えてみれば、「勝利」という目標を達成するために有効と判断すれば、AIは、人間なら回避するような非常識で残酷な手段も選択しうる。それが何の罪も落ち度もない市民への無差別攻撃につながることもあるかもしれない。その思考の過程が見えないAIの不気味さを感じざるをえない。

 さらに、AI自身が意図しない「暴走」も起こりえるだろう。どんなに高性能につくられていても、マシーンである以上、故障による誤作動やプログラムのバグは起こりうる。またサイバー攻撃でハッキングされる可能性もある。

 やはり、手遅れになる前に完全自律型のAI兵器に規制をかけるべしとの主張は、至極真っ当なこと。

« A I 兵器―――異次元の危険領域 ③ | トップページ | A I 兵器―――異次元の危険領域 ⑤ »

日記・コラム・つぶやき」カテゴリの記事