[PR]

 人工知能(AI)の活用が広がる中、クルマの自動運転や医療、軍事など、人命や経済損失につながる分野で使うには、「なぜその結論を出したのか」が人間には分からないことが大きな課題になっている。AIを信頼するためにカギとなる「説明できるAI」を実現しようと、様々な取り組みが国内外で進む。

 防犯カメラに映った数千人の群集の中から不審者を特定したり、囲碁で最強の棋士を打ち負かしたり――。日常生活の中ですでにAIは身近になりつつある。

 コンサルティング会社マッキンゼーは昨年9月、AIの普及が、2030年までに全世界で約13兆ドル(1452兆円)の経済効果をもたらすという予測を公表した。

 一方、その能力をさらに発揮するには大きな課題もある。高性能AIの正体は、コンピューターでしか解けない極めて複雑な計算式のようなものだ。結論だけを提示する「ブラックボックス」で、その判断によって人命や財産に損害が出た際に検証が難しく、実用化の壁になっている。

 前橋市では3月まで、路線バス…

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

有料会員限定記事こちらは有料会員限定記事です。有料会員になると続きをお読みいただけます。

980円で月300本まで有料記事を読めるお得なシンプルコースのお申し込みはこちら