[PR]

 人工知能(AI)自身にも倫理性を――。大学や企業の研究者で作る人工知能学会が28日、人工知能の研究開発の倫理指針をまとめ、ホームページで公開した。研究者が備えるべき倫理性を、人工知能自身にも求めたのが特徴だ。技術が進歩し、「人工知能が人工知能を作り出す」時代の到来を見越した。

 指針は学会の倫理委員会が2年かけてまとめ、理事会が承認した。最終の第9条で「人工知能が社会の構成員またはそれに準じるものとなるためには、(中略)学会員と同等に倫理指針を遵守(じゅんしゅ)できなければならない」とした。学会員向けには1~8条で開発と利用の際の安全確保、利用者への情報提供や注意喚起、差別の禁止、プライバシーの尊重、悪用防止、社会との対話などを挙げた。

 人工知能の進歩はめざましく、会社の経営判断や医師の治療行為を補助する人工知能が登場し、いずれ自ら考えて行動し、人工知能を作る人工知能が登場すると予測される。時期は十数年後とも半世紀以上先ともいわれ、予測はまちまちだが、欧米では、技術の後追いになって社会が混乱しないよう、例えば法人格のような法律上の責任主体としての「人格」を人工知能に与えるなどの提案が出ており、倫理委も参考にした。

 当初は拘束力が伴う倫理綱領とする構想だったが、自由な研究開発の妨げになるとの判断から、緩やかな「指針」に変更した。社会と対話しながら書き換えていくという。松尾豊委員長(東京大特任准教授)は「社会の構成員としての人工知能の姿は、鉄腕アトムやドラえもんになじんだ日本人にはイメージしやすいと思う。9条をきっかけに、人工知能のあるべき姿の議論が社会の中でも深まることを期待したい」と話す。

 人工知能は社会の生産性や利便性を高める半面、個人情報を分析して人物評価を下す「プロファイリング」がプライバシーの侵害や差別の助長につながったり、自動運転車が交通事故を起こしたり、株式売買を人工知能で瞬時に行う「超高速取引」が経済格差を拡大させたりするといった社会不安を招きかねない側面がある。

 米国のビル・ゲイツ氏や英物理学者スティーブン・ホーキング氏など多くの著名人が、高度な人工知能に対して「人類への脅威になりうる」と警鐘を鳴らしている。

 倫理指針は同学会倫理委員会のホームページ(http://ai-elsi.org/archives/471別ウインドウで開きます)に掲載されている。(嘉幡久敬)