脳信号を音声に変換、UCSF研究チームが新アプローチ
人間が発話するときの脳の活動を記録し、記録した信号から合成音声を作り出す埋め込み型の機器をカリフォルニア大学サンフランシスコ校(UCSF)の研究者チームが開発した。実験ではこれまでにない正確さで発話の内容を確認できたという。 by Antonio Regalado2019.05.08
人間が話をしようとするとき、脳は唇、舌、顎、喉頭に信号を送り、これらの部位が連動することで意図した音を発することができる。その仕組みについて考える必要はない。
カリフォルニア大学サンフランシスコ校(UCSF)の脳神経外科医、エドワード・チャン教授らは、これらの脳信号を利用して完全なフレーズを発することができるデバイスを作成したという。たとえば、「チャーリーの汚れたお皿は洗わないで」や「重要な機器が適切なメンテナンスを必要としています」といった具合だ。
この研究によって、重度のまひ状態にある人々の会話を補助するシステムの実現へ向けて一歩前進した。いつの日か、誰でも脳からメッセージを直接送れるようなガジェットが生まれるかもしれない。
チャン教授率いる研究チームは、すでに脳手術を受けていた5人のてんかん患者に100個のフレーズが書かれたリストから文章を読み上げてもらい、脳の活動の様子を記録した。
その後、研究チームは、記録した信号を人間の発声機構を模したコンピューターモデルに入力して、合成音声を作り出した。生成された音声の半分は理解できるものだった。
https://s3.amazonaws.com/files.technologyreview.com/p/pub/files/ucsf-speech-synth-demo-2-sentences-orig-synth_0.mp3
チャン教授らの取り組みは、抽象的な思考ではなく、発声器官を動かすために神経が興奮している状態を記録するというものだ。同教授らはこれまでにも、脳の他の部位から伝わるこうした運動信号を使って、ロボットの腕を動かしたことがある。
「動きを制御する脳の部位を調べています。直接の発話よりむしろ、動作を解読しようとしているのです」(チャン …
- 人気の記事ランキング
-
- AI reasoning models can cheat to win chess games 最新AIモデル、勝つためなら手段選ばず チェス対局で明らかに
- OpenAI just released GPT-4.5 and says it is its biggest and best chat model yet 限界説に挑むオープンAI、最後の非推論モデル「GPT-4.5」
- Your boss is watching 機械化する人間たち—— 「見えない目」が変える 職場の風景
- Welcome to robot city アンデルセンの故郷、 ロボット産業の中心地に デンマーク小都市の成功物語