[PR]

 目では捉えられない皮膚の変化で心拍数を測る。周囲の状況に応じて車いすを自動制御――。高精度化するコンピューターの「見る能力」を活用し、高齢者の生活を支える最新技術を埼玉大大学院の教授らが次々に開発している。企業とのタッグで実用化も目指す。

 4月下旬。埼玉県本庄市の高齢者向け住宅「はまなすの里」で、ロボットと会話するお年寄りの顔をビデオで撮影していたのは、同大院理工学研究科の久野・小林研究室のメンバー。皮膚の色の微妙な変化をとらえ、心拍数をほぼ正確に計測できる技術の実験だ。

 久野義徳教授(知覚情報処理)によると、毎秒約30枚の画像を数十秒以上撮影。顔から無作為に選んだ2地点を1組のペアとして、目に見えない皮膚の微妙な色の変化を捉え、心拍による変化と思われる回数を数える。これを500組のペアで繰り返すことで、心拍数を導き出す。これまでの実験では、正しい心拍数との誤差が1分あたり5回以内の数値を、約75%の確率で計測できた。

 会話中の顔は、うなずいたり、横を向いたりと動く。そこで目や鼻、輪郭など顔の領域をコンピューターが自動で検出し、顔が動いても同じ地点を追跡できるようにした。テレビや蛍光灯など、別の明かりによる色の変化とも区別する。

 こうした技術を備えたことで、実用化すればテレビ電話で会話しながら、遠くからでも高齢者の健康状態を確認でき、計測機器の装着も不要になるという。車の運転手の健康確認などにも使える。

 応用すれば「興奮しているか、楽しんでいるのかといった人の内面的な感情も心拍数から推定できるようになる」(久野教授)。企業とともに、製品化に向けて開発を進めている。

車いすの自動運転も

 同研究室では、コンピューターの「見る能力」で周囲の間取りや障害物を認識し、目的地に自動で向かう車いすや買い物カートも開発。小林貴訓准教授は「何百種類の物体を特定するなど、AI(人工知能)の精度がこの2年ほどで高まり、高齢者支援にアウトプットできるのではと考えた」と話す。

 車いすでは、足元近くにあるセンサーが周囲270度の範囲に弱いレーザー光を発し、反射時間で距離を測り、周囲の状況を地図化する。障害物があれば自動で回避し、付き添いの人と並んで進んでいる状況なら、会話しやすいように付添人の斜め後ろの位置で進むようにするなど「最適な状況をAIが判断する」という。

 バスの乗降口に来るとタイヤが自動で上がり、1人でも乗り降りできる技術も、トヨタ自動車と共同開発中。5月中旬には実際のバスで実証実験を行う。

 「技術的には実用化のレベルに達している」(小林准教授)一方で、製品化に向けてはまだコスト面が壁だ。小林准教授は「センサーを少なくするなどハードウェアの低価格化と、高コストの壁も乗り越えるほどの利便性の向上に取り組んでいく」と話している。

<アピタル:ニュース・フォーカス・その他>

http://www.asahi.com/apital/medicalnews/focus/(小笠原一樹)