写真・図版

  • 写真・図版
  • 写真・図版
[PR]

 人工知能(AI)搭載の無人兵器が増え、人間を介さずに殺傷を判断する「自律型致死兵器システム(LAWS)」も登場する――。近未来の兵器は日米同盟や安全保障環境をどう変え、人類に何をもたらすのか。倫理的な懸念はどう考えるべきなのか。ロボット工学が専門の広瀬茂男東工大名誉教授と、軍事技術に詳しい森聡・法政大教授に聞いた。

「前のめりで進めれば周辺国は反発」広瀬名誉教授

 ――2017年に、国連に対してLAWSの禁止を求める書簡に日本人で唯一署名されました。ロボット工学の専門家としてLAWSをどう見ていますか。

 「人間が介在せずに人を殺傷できるマシンが動き出すというのは、少し前まで、SFの世界だった。それが、AI技術の急速な進歩で現実化しかねない。そういう問題意識と危機感があった」

広瀬茂男東工大名誉教授の略歴
 ひろせ・しげお 1947年生まれ。ロボット工学が専門。東京工業大大学院で博士課程修了。同大教授などを経て同大名誉教授。現在はロボット企業「ハイボット」会長。福島第一原発の廃炉用ロボットなども開発中。

 「かつては将棋ではAIは勝てないと言われていたが、最近は多くのルールを理解するAIが人間に勝利するようになってきた。人間は何段も複雑な思考を経て結論を出す。以前のロボットは、ある入力をすれば、決まった答えを出力するだけだったが、複雑な思考過程を作り出すAIができても不思議ではなく、一部では実現している」

 ――AIの負の要素は何でしょうか。

 「利点は欠点にもなる。例えば、自動車の自動衝突回避技術。人間を探知・認識して衝突を回避する能力を持つということは、『回避』を『攻撃』というコードに書き換えるだけで、敵対する民族なり、特定のグループを狙い撃ちすることもできることを意味する。AIは使い方次第で、恐ろしい結果をもたらす」

 ――米ロなどがLAWSを禁止する国際条約づくりに反対しています。

 「私も地雷探査ロボットを開発したことがあり、対人地雷を全面禁止するオタワ条約の例で話すと、すべての国や団体が条約を完全に守ればよいが、主要国が地雷の使用禁止を守っても、地雷は簡単に作れてしまうので守らない国や団体が出てくる。そうするとかえって地雷が(相手側に)有効に使われてしまう状況になる」

 「銃規制も同じだ。米国で銃規制をやる過程では、善良な市民は銃を捨てるとしても、悪意を持つ人間は隠し持つ過渡期が必ず出てしまう。すると、治安はかえって乱れる。AI兵器やLAWSの規制も、構図は似ている」

 ――日本政府はLAWSの開発はしないと宣言する一方、人の意思が介在する自律型兵器の研究・開発は規制すべきではないという立場です。

AIや自律型兵器は、近未来の戦闘をどう変えるのか。記事の後半で、米政府の打ち出した構想についても詳しく報告します。

 「いいとは思わないが、AIが…

この記事は有料会員記事有料会員記事です。有料会員になると続きをお読みいただけます。

この記事は有料会員記事有料会員記事です。有料会員になると続きをお読みいただけます。

この記事は有料会員記事有料会員記事です。有料会員になると続きをお読みいただけます。

この記事は有料会員記事有料会員記事です。

980円で月300本まで2種類有料会員記事会員記事の会員記事を読めるシンプルコースのお申し込みはこちら