人工知能(AI)に関する政策の方向性を議論する政府の「AI戦略会議」(座長=松尾豊・東大大学院教授)は26日、政府への提言を盛り込んだ論点整理をまとめた。「ChatGPT(チャットGPT)」が急速に普及するなか、生成AIのリスクを列挙した。政府は事業者向けのガイドラインを見直すと説明したが、「推進色」が強い内容で、懸念に答えるものになるかは不透明だ。
論点整理では、「懸念されるリスク」として、①機密情報の漏洩(ろうえい)や個人情報の不適正な利用②犯罪の巧妙化・容易化③偽情報などが社会を不安定化・混乱④サイバー攻撃が巧妙化⑤学校現場における生成AIの扱い⑥著作権侵害⑦AIによって失業者が増える――の七つを例示した。
そのうえで、生成AIの開発などを進めるためにも、「懸念やリスクへの適切な対処を行うべき」だとし、「ガードレール」の設置が必要だと明記した。
具体的には、AI開発者やサービス提供者に対して、「既存の法令・ガイドラインの遵守(じゅんしゅ)を促すことが重要」だとした。さらなる対応を検討する場合は、過度な規制を避けつつ、ビジネスの予見可能性や柔軟性を踏まえた視点が必要であることを強調した。
七つのリスクとは別に、「利…