[PR]

 人の生命を奪う判断を機械にゆだねることを認めるか否か。国際的なルールづくりはこれからが正念場だ。

 ロボット兵器の規制をめぐる専門家会合がスイス・ジュネーブで開かれ、3年間にわたった議論を報告書にまとめた。示された指針には、ロボット兵器の行為にも国際人道法を適用することや、その使用には人間が責任を持つことなどが盛り込まれた。当然の結論といえる。

 だが、条約などの形で法的拘束力をもつ規制とするまでの合意には至らなかった。専門家会合は今後も話し合いを続けるという。実効性のある具体的な制度づくりに向けて、さらに検討を深めなければならない。

 対象は、人工知能(AI)を備え自律的に作動して敵を殺傷する兵器だ。自律型致死兵器システム(LAWS)といい、殺人ロボットとも呼ばれる。

 米国やロシアをはじめとする開発を進める国と、中南米、アフリカ諸国など禁止条約を求める国との溝は深い。人間の関与が必要という点ではほぼ一致しても、「関与」の程度をめぐる認識は大きく隔たっている。

 例えば、人間の司令官による包括的な指揮・命令があれば、現場での個々の判断や動きはロボット任せで構わないとする主張がある。紛争地に投入されれば、殺し、傷つけることへの痛みを感じない兵器が生身の人間と交戦するという、映画のような光景が現実のものになる。

 一片の人間性も存在しない戦争とは何か、社会はそれを許容するのかという、人間の存在や倫理に深く関わる問題だ。

 ロボット兵器こそ国際人道法の実践につながるという言い分もある。敵の識別や攻撃行動が正確になり、間違った殺傷が減る。違法行為があっても詳細な記録が残るので、検証や報告が容易になる。結果として人道にかなう、という理屈だ。

 しかしAIの学習機能が深化するほど、何を基準に識別・判断したのか、人間にはわからないブラックボックス化が進む。学習データの偏りが、AIの判断を誤らせる危険も指摘されている。加えて、状況が錯綜(さくそう)し、混乱する実際の戦場では、ロボットが予測不能な行動するのではないかとの懸念をいだく専門家は少なくない。

 安易なロボット兵器推奨論に乗るわけにはいかない。

 まずは、人間の手を離れて作動する完全自律型兵器については一切の使用禁止を実現させたい。そのうえで、標的の把握・識別・攻撃という各局面で、AIに任せると危険な要素を洗い出し、そこに拘束力のある規制をかけるのをめざすべきだ。

 人類の知恵が試されている。

こんなニュースも