[PR]

 人工知能(AI)技術を使い、人間が見たり想像したりしている物が何かを推定する方法を、京都大の神谷之康教授らのグループが開発、英科学誌ネイチャーコミュニケーションズに22日発表した。脳の活動を読み取って機械を動かすブレーン・マシン・インターフェース(BMI)の技術などに応用できそうだ。

 これまでの脳の解読技術は、物体を見ている際の脳の活動パターンが解析された「学習済み」のものしか予測対象にできなかった。グループは、AIの画像認識性能の向上を踏まえ、脳の情報伝達ネットワークをヒントに作られた人工知能モデルを使い、任意の物体の予測を目指した。

 ある物体の画像を見た時の脳活動のパターンを機能的磁気共鳴画像(fMRI)で計測。このパターンを画像認識を行う人工知能モデルのデータに変換する方法を開発した。このデータをもとにAIが何の画像か類推することで、「学習済み」以外の物体も、何を見ているのか分かるようになった。頭に思い浮かべただけでも同様に推定できるという。

 神谷さんは「実際の脳と人工知能を対応づけることで、脳情報の解読だけでなく、新たな人工知能の開発にも役立つ可能性がある」と話す。

<アピタル:ニュース・フォーカス・その他>

http://www.asahi.com/apital/medicalnews/focus/(編集委員・瀬川茂子)