[PR]

 人の命を奪う判断まで、人工知能(AI)にゆだねてはならない。法的拘束力のある規制に向けて、国際的な合意形成を急ぐべきだ。

 殺人ロボットをめぐる国際会議が、スイス・ジュネーブで開かれている。AIを備え、人間の関与なしに敵を攻撃する自律型致死兵器システム(LAWS)のことだ。米国、中国、ロシア、韓国、イスラエルなどが開発中とされる。

 現在は、無人機の場合でも、人間が遠隔操作して標的を定め、攻撃するかどうかを判断している。殺人ロボットが投入されたら、一体どうなるのか。

 人を殺すことに、ためらいはない。殺されるという恐怖心もない。死傷者を減らせるという指摘もあるが、そのことが逆に、戦争への敷居を下げかねない。AIによる判断の誤りや、誤作動、暴走していく危険もあるだろう。その時、だれが責任をとるのかもわからない。

 戦争の様相を一変させる殺人ロボットが、火薬、核兵器に続く、軍事上の「第3の革命」と呼ばれるゆえんだ。

 非人道的な特定の通常兵器の使用を禁止・制限する条約の枠組みの下で、2017年から専門家による検討が断続的に続いているが、議論は収斂(しゅうれん)していない。中南米やアフリカの国々などが、法的拘束力のある禁止条約を求めているのに対し、米ロなどの開発国が慎重なためだ。

 まだ完成された兵器ではないため実態が見えにくく、定義や危険性についての議論もかみ合わない。しかし、完成してから規制をかけるのは至難の業だ。国際社会全体として合意づくりを急がねばならない。

 日本政府は今回の専門家会合に先立ち、「人間による関与が必須」だとの考えを示し、日本として「完全自律型の致死性を有する兵器を開発しない」とする文書を公表した。ただ、現状では法的拘束力のある文書をまとめるのは「困難」とした。

 当面の意見集約を優先する狙いだろうが、腰が引けた印象は否めない。あくまで禁止条約をめざす日本の姿勢を明確にすべきだ。

 軍事用にも民生用にも活用しうるAI自体の研究開発は止められない。それだけに、将来的には、AIを使った兵器全般について、適切な規制・管理が必要ではないか。殺人ロボットの禁止が実現すれば、その第一歩となろう。

 政府間だけでなく、企業、研究者、NGOなど様々なレベルで問題意識を共有し、国際的な規制につなげねばならない。

こんなニュースも