ロボットの犯罪 〜ドローンによるサウジアラビア石油基地攻撃〜(弁護士:和田光弘)

はじめに

これを書いている2日前のニュースに、サウジアラビアの石油精製基地がドローンによる攻撃で炎上している、というニュースが報じられた。

これにより、サウジアラビアの石油生産能力が5%減少するという。

攻撃の翌日から、原油の先物取引の相場は、一転高騰を始めた。

 

 

ロボットの犯罪 〜ドローンによるサウジアラビア石油基地攻撃〜

 

 

攻撃声明は、隣国イエメンの反政府勢力から行われたが、アメリカは1200キロの距離を飛行することに疑問を投げかけ、サウジアラビアに敵対するイランの攻撃として疑いを投げかけている。

真偽のほどは不明のままだ。

 

しかし、ドローンが識別能力のあるセンサーと人工知能による命題実行能力を備えれば、今や、巨大石油基地の盲点をつくことも十分にありうると思わざるを得ない。

いわば、ロボット化した兵器による攻撃と言えるだろう。

 

 

 

自律型致死兵器システムの誕生

人工知能(AI: artificial intelligence)とロボット技術を犯罪や軍事技術に利用するシステムが開発され、応用される時代が来ている。

 

「自律型致死兵器システム」(LAWS: lethal autonomous weapons system)と呼ばれているものである。

ちなみに、この略語のLAWSは英語で言う「法律」の意味になるから、実に皮肉な略語である。

このシステムは、「人間が関与することなく、攻撃目標を定め、致死的攻撃を行うことができる兵器システム」とされているが、実に物騒な時代に突入した。

 

 

自律型致死兵器システムの誕生

 

 

1200キロ離れた国の石油基地を攻撃した挙句、さらに別のドローン攻撃部隊には、特定の人物(例えば首脳)の頭部のみの爆破攻撃も可能になる。

現に、国際NGOが作成している動画では、手のひらに乗るカブトムシぐらいの大きさのドローンが飛び立ち、あらかじめ攻撃すべき人物を識別すると、その頭部に小さな火薬を炸裂させるという凄まじい映像を流している。

 

すでに、現実のシステムになっている。

 

この動画の状態が、もし現実に起きたとき、責任を負うのは、無論、特定人物の攻撃を計画し、実行システムを作動させた、張本人ということにはなる。

しかし、技術の発達はそれにとどまらないかもしれない。

 

 

 

ロボットの犯罪

この自律型致死兵器システムは、何も殺人を意図しなくても、動かすこと自体はできるだろう。

 

例えば、人工知能を備えたドローン型ロボット(致死能力も備えている)への命令事項として「不法に国境を越えようとする人々を威嚇すること」という指示をした場合、このロボットは、人工知能による学習(いわゆるディープ・ラーニング)を深めることで、指示の深掘りを勝手に進めてしまい「国境を超えた人々に身体攻撃をして国境を防衛する」にまで進展するかもしれない。

その場合には、まさに命令の範囲を超えて「人間が関与することなく」殺人攻撃もあり得る。

 

 

ロボットの犯罪

 

 

「ロボット」という用語は、チェコの作家カレル・チャペックが最初に使い、「強制労働」を意味するチェコ語に由来するという。

そこには、人間の命令を超えた行動は予定されていない。

しかし、人工知能は、システムの構成の仕方によっては、人間の命令を超えてしまうことがありうるかもしれない。

 

そこでは、人間の方では「私は人を殺せなどと命令したことはない」と言い、ロボットの方では「私が命令事項を深化させて私の判断で人を死に至らせました」と言えば、被害者は誰に責任を求めるのだろうか。

 

そもそも、そのような倫理観・道徳観(汝、人を殺すなかれ)をシステムに組み込まなかったことが問題なのだということなのか、ロボットの人工知能が一人歩きする可能性を見通せなかった人間の過失なのか、そもそもそのような規制のない社会で開発を許した法の不備なのか、などと、次々に疑問が浮かぶ。

 

それでも、被害者の遺族は叫ぶかもしれない。「ロボットを壊せ」と。

しかし、この言葉の虚しさは叫んだ本人が一番感じることになる。

 

最小限の「ロボットの法的責任」が構想できる余地はありうるだろうが、意思のない物体に、知能の進化があるというだけで「法的責任」が問えるのか。

明治民法や明治刑法の流れを学んだ我ら古い弁護士には、想像を超えるものがある。

 

 

 

混在の時代

ドローンが1000キロを飛んで石油基地を攻撃できる時代に、人類は、個人所有の武器として、とうとうミサイル的な機能を有する兵器まで所有できる時代になった。

しかし、斧やナイフや槍や刀や拳銃や、といった原始的(?)武器もそう簡単に廃れはしないだろう。

「混在の時代」だ。

 

この時代にこそ、次の責任論、すなわち「システム構成に対する責任」とも呼ぶべきものが必要になるのではないだろうか。

自動的に学習を繰り返し、目的に沿った行動を無限のデータから拾い出して、新たな行動をとりうる人工知能を備えた「ロボット」には、もう一方の倫理的なデータも必要にならざるを得まい。

すなわち、人類が2000年に渡って試行錯誤してきたソクラテス以来の哲学(社会における人間の生き方)、そして3000年来の東西の宗教観(キリスト教、仏教、イスラム教ほか)、それらを止揚してきた20世紀の戦争後の「寛容」と「人間主義」の価値観が必要になると思う。

 

そうした「システム」こそが、ロボットと人間の混在の時代が続いているうちに、求められてくると思う。

 

 

 

 

弁護士 和田光弘