[PR]

 企業が貸し出しの判断や採用、人事などで人工知能(AI)を使うことが増える中、評価される個人が不当に不利益を被ることがないようにするための「指針」案を、IT企業や有識者でつくる民間の研究会がまとめた。AI活用に対する国内の法規制などが遅れる中、企業による自主規制を促す内容だ。

 指針案をまとめたのは、「パーソナルデータ+α(プラスアルファ)研究会」(事務局長=山本龍彦・慶応大教授)。メルカリなどの民間企業からも加わっている。

 AIで個人情報を分析して傾向をつかんだり評価したりする手法は「プロファイリング」と呼ばれ、そこで得られた予測結果をもとにその人の趣味や嗜好(しこう)に合った広告が配信されるなど、さまざまなシーンで使われている。一方、個人情報保護法ではプロファイリングの取り扱いが不明確といい、利用者が気づかないうちにプロファイリングで個人情報を使われ、クレジットカードの利用限度額を変えられるなどの不利益を受ける恐れもある。

 研究会は、企業側の説明責任など19項目の「チェックリスト」を例示。特に問題視されているのは、AIがなぜその結論に至ったのか過程が分からない「ブラックボックス化」だ。

 指針案では、AIが使う予測モデルがどのデータを使ったのか特定しておくなど、企業に説明責任を果たすよう求めた。AIに評価される側が「理解できるような理由」を示す必要があるとも指摘した。

 さらに、評価を下す過程でAIに完全に判断を委ねるのではなく、人の関与を検討するよう求めた。評価に不服があれば、人が再審査するといった対応策も盛り込んだ。個人情報を取り扱う企業などを対象に欧州連合(EU)が昨年5月に施行した「一般データ保護規則」(GDPR)には「人間関与原則」が含まれている。

 憲法が専門の山本教授は「プロ…

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

980円で月300本まで有料記事を読めるお得なシンプルコースのお申し込みはこちら