生成AIのリスク、既存ルールでの対応強調 AI戦略会議が論点整理

有料記事ChatGPT

[PR]

 人工知能(AI)に関する政策の方向性を議論する政府の「AI戦略会議」(座長=松尾豊・東大大学院教授)は26日、政府への提言を盛り込んだ論点整理をまとめた。「ChatGPTチャットGPT)」が急速に普及するなか、生成AIのリスクを列挙した。政府は事業者向けのガイドラインを見直すと説明したが、「推進色」が強い内容で、懸念に答えるものになるかは不透明だ。

 論点整理では、「懸念されるリスク」として、①機密情報の漏洩(ろうえい)や個人情報の不適正な利用②犯罪の巧妙化・容易化③偽情報などが社会を不安定化・混乱④サイバー攻撃が巧妙化⑤学校現場における生成AIの扱い⑥著作権侵害⑦AIによって失業者が増える――の七つを例示した。

 そのうえで、生成AIの開発などを進めるためにも、「懸念やリスクへの適切な対処を行うべき」だとし、「ガードレール」の設置が必要だと明記した。

 具体的には、AI開発者やサービス提供者に対して、「既存の法令・ガイドラインの遵守(じゅんしゅ)を促すことが重要」だとした。さらなる対応を検討する場合は、過度な規制を避けつつ、ビジネスの予見可能性や柔軟性を踏まえた視点が必要であることを強調した。

 七つのリスクとは別に、「利…

この記事は有料記事です。残り159文字有料会員になると続きをお読みいただけます。

※無料期間中に解約した場合、料金はかかりません