イタリアのデータ保護当局は3月31日、昨年11月公開の対話型AI(人工知能)「ChatGPT(チャットGPT)」の使用を一時的に禁止すると発表した。膨大な個人データの収集が個人情報保護法に違反する疑いがあるという。運営する米新興企業オープンAIは、約29億円の罰金を科される可能性がある。
保護当局は3月20日、チャットGPT利用者の会話内容や支払い情報に関するデータ侵害の報告を受け、調査を始めた。英紙フィナンシャル・タイムズによると、利用者の氏名やクレジットカード番号の一部が9時間、外部からアクセスできる状態だったという。
保護当局によると、こうした調査の中で、チャットGPTが収集しているデータ内容を、利用者に適切に通知していなかったことが判明。AIの訓練に必要となる膨大な個人情報を法的根拠なしに集めていた可能性があるという。
また、利用規約では利用者を13歳以上に限定しているものの、サイトへのアクセス時に年齢を確認する仕組みがないことも判明。AIとのやり取りで、子どもが年齢にふさわしくない回答を受け取る恐れがあるとした。今回は個人情報の違法収集の疑いと年齢確認の仕組みの未整備を理由に使用禁止を決めた。
ロイター通信によると、欧米でチャットGPTの使用を禁止するのはイタリアが初めて。保護当局はオープンAIに対して、20日以内に問題の解決策を実施して報告することを求めた。対応をとらない場合には、最大2千万ユーロ(約29億円)か、世界での年間売上高の4%に相当する罰金を科す可能性があるという。
運営企業、欧米、そして日本の対応はどうなる?
オープンAIのサム・アルト…