w 声でAIが認知機能を判別する世界初のスマートフォンアプリ「ONSEI」(2/4):NICT
サイトマップ - ヘルプ - お問い合わせ
 
 
現在位置: トップページ > トピック記事 > 高齢者・障害者支援サービス・取組 > 声でAIが認知機能を判別する世界初のスマートフォンアプリ「ONSEI」(2/4)

声でAIが認知機能を判別する世界初のスマートフォンアプリ「ONSEI」

2 声の特徴量から認知機能の状態をAIが判定

「ONSEI」はどのような仕組みで認知機能を判断しているのでしょうか?

増岡:スマートフォンにダウンロードした「ONSEI」アプリを立ち上げ、画面に向かって今日の日付「西暦何年の何月何日何曜日」を声で入力します。それにより、認知機能を計測します。声を活用しようと決めるまでには、何が最も適した生体情報なのかと、表情や目の動きなど、いくつもの要素で研究を重ねました。

声を活用する決め手は何だったのでしょう。

増岡:並行して多くの生体情報で研究しましたが、精度が不安定だったり、判別するまでに時間が掛かったり、社会実装上、非現実的だったりする中で、判別精度、時間、社会実装面で、「声」が最も適していると判断しました。具体的には、基本的な状況把握となる、今日の日付の正誤の判定にプラスして、周波数をはじめとする「音声特徴量」や声から判別できる「言語・思考・認知・記憶・行為・注意」などの要素などの要素をAIが分析して、認知機能低下の疑いの有無を判別しています。そのため、間違った日付を答えたというだけで、認知機能の低下を検知するものではありません。ちなみに、AIのベースになるビックデータには、複数の熟練の専門医による、統一した厳格な基準で診断された認知症の方とそうではない方の音声特徴を利用しています。

「ONSEI」のアプリを立ち上げるとこのような画面が現れ、声でその日の「西暦、日付、曜日」を入力し、「回答しました」のボタンを押すという仕組み

「ONSEI」のアプリを立ち上げるとこのような画面が現れ、声でその日の「西暦、日付、曜日」を入力し、「回答しました」のボタンを押すという仕組み

もし認知機能に異常があれば、このような画面が現れる。結果は記録されるので、認知機能のモニタリングにも役立つ

もし認知機能に異常があれば、このような画面が現れる。結果は記録されるので、認知機能のモニタリングにも役立つ

ページの先頭に戻る

前へ 目次へ 次へ