[PR]

 人工知能(AI)の活用が広がる中、クルマの自動運転や医療、軍事など、人命や経済損失につながる分野で使うには、「なぜその結論を出したのか」が人間には分からないことが大きな課題になっている。AIを信頼するためにカギとなる「説明できるAI」を実現しようと、様々な取り組みが国内外で進む。

 防犯カメラに映った数千人の群集の中から不審者を特定したり、囲碁で最強の棋士を打ち負かしたり――。日常生活の中ですでにAIは身近になりつつある。

 コンサルティング会社マッキンゼーは昨年9月、AIの普及が、2030年までに全世界で約13兆ドル(1452兆円)の経済効果をもたらすという予測を公表した。

 一方、その能力をさらに発揮するには大きな課題もある。高性能AIの正体は、コンピューターでしか解けない極めて複雑な計算式のようなものだ。結論だけを提示する「ブラックボックス」で、その判断によって人命や財産に損害が出た際に検証が難しく、実用化の壁になっている。

 前橋市では3月まで、路線バス…

この記事は有料会員記事有料会員記事です。有料会員になると続きをお読みいただけます。

この記事は有料会員記事有料会員記事です。有料会員になると続きをお読みいただけます。

この記事は有料会員記事有料会員記事です。有料会員になると続きをお読みいただけます。

この記事は有料会員記事有料会員記事です。

2種類有料会員記事会員記事の会員記事が月300本まで読めるお得なシンプルコースはこちら