写真・図版

[PR]

 人工知能(AI)などを搭載し、自らの判断で標的を選んで攻撃する完全自律型の兵器は認められないとする指針が、スイスで今月開かれた国際会議で採択された。法的拘束力はないものの、今後の兵器のあり方を示す事実上の国際規範となる。ただ、議論では各国の思惑が交錯し、指針には土壇場で「説明できるAI」のような新技術について、グレーゾーンにする項目が盛り込まれた。

 スイス・ジュネーブ、22日午前3時(現地時間)になった。エアコンも止められた国連欧州本部の小ぶりな会議室で、会議を総括する報告書が全会一致で採択された。2014年から続いてきた「自律型致死兵器システム」(LAWS)に関する議論が、ようやく集大成の成果文書としてまとまった。

 非人道的な兵器を規制する目的で、125の国と地域が批准する特定通常兵器使用禁止制限条約(CCW)。その下に設けられた今回の政府専門家会合には、90カ国以上の政府代表やNGOなどが出席した。LAWSはまだ登場していないが、米ロや韓国、イスラエルなどが先駆的に開発しているとされ、人権団体などは自律性のある兵器の幅広い禁止を訴えてきた。

 今回採択された指針は11項目。AIと称される機械学習などの新技術を用いた将来のLAWSについて、まず戦時の民間人らの保護を定めた国際人道法や関連する国際法を順守することを確認した。そして、AIなどを搭載した兵器が自ら標的を選んだり、攻撃を決断したりすることが技術的に可能になるとしても、兵器を使用する責任は人間にあると規定。開発から配備、使用まで人間が関与する原則も示した。

 一方、指針はAIのような「知的な自律技術」そのものの発展や、平和利用されることを妨げないことも求めた。民生でも軍事でも、AIなどのソフトウェア技術に大きな違いはないためだ。ロシアなど一部の国は、将来の兵器であるLAWSが出現していない段階で、開発に規制をかけることに反対してきた。

 指針は11月に予定されるCCWの締約国会議で追認され、より確固たるものとなる見通しだが、さらに進めて条約化を目指す動きは鈍い。先行き不透明だ。

 人権団体のブレーンである米ハーバード大法科大学院講師のボニー・ドチェルティさんは採択後、取材に「(報告書の文言は)今後、法的拘束力のある条約をつくる可能性を残しつつ、非拘束もあり得るという広い意味を持つものになった」と指摘した。

 一方、日本政府代表団に加わった拓殖大の佐藤丙午教授(安全保障論)は「指針を採択した各国は、自らの責任で自国の政策に反映するよう方向付けられた。規制のための国際機関や条約体は当面、作られる可能性が低いだろう」と語る。

■説明できるAI 米国が開発に…

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

980円で月300本まで有料記事を読めるお得なシンプルコースのお申し込みはこちら