脳インプラントで毎分78語を変換、アバターで表情も再現
脳活動を発話に変換する新たな研究成果が発表された。発話に使う唇や舌の筋肉を制御する脳内信号を脳インプラントで捕捉し、その信号をAIで言葉に変換する。 by Cassandra Willyard2023.08.28
「私の人工音声はどうかしら?」と、コンピューターの画面に映し出された女性が緑色をした目を少し見開いて尋ねる。映像は明らかにコンピューター処理されており、音声もたどたどしいが、それでも画期的な瞬間だ。この映像は、18年前に脳卒中で発話能力を喪失した女性のデジタルアバターだ。脳インプラントと人工知能(AI)アルゴリズムを取り込んだ実験の一環として、現在この女性は、本人の声を複製した音声で語り、アバターを通じて限られた範囲の表情を伝えることもできる。
8月23日にネイチャー(Nature)誌に掲載された、2つの別々の研究チームによる2本の論文は、この分野がいかに急速に進歩しているかを示している。ただし、いずれもまだ概念実証に過ぎず、このテクノロジーが広く一般に提供されるようになるまでに、非常に長い道のりがまだ待ち構えている。 どちらの研究も、明瞭に発話する能力を喪失した女性を対象にしており、一人は脳幹卒中、もう一人は進行性の神経変性疾患であるALSが原因で話せなくなった。参加者はそれぞれ別のタイプの記録装置を脳に埋め込んでおり、2人とも1分間に60語から70語ほどのスピードでなんとか話す。通常の発話スピードのほぼ半分だが、以前の報告時に比べて4倍以上速い。カリフォルニア大学サンフランシスコ校の脳外科医エドワード・チャンが率いるチームは、表情を作り出す微小な動きを制御する脳信号を捉えることで、被験者の発話行為をほぼリアルタイムで表現するアバターの作成にも成功した。
2本の論文は「非常にエレガントで厳密な脳の科学と工学を象徴するものです」。カナダ・バンクーバーにあるブリティッシュコロンビア大学の脳神経倫理学者であるジュディ・イレス教授は言う(同教授はどちらの研究にも関与していない)。表情を表すことができるアバターが追加された点を、イレス教授は特に評価した。「コミュニケーションは人と人の間の単なる言葉のやりとりではありません。声の調子、表情、強勢、文脈を通じて伝えられる言葉やメッセージなのです。こうした人間性の要素を実際に基礎科学、工学、ニューロテクノロジーに持ち込もうとしたのは、創造的でとても思慮深いことだと思います」。
チャン医師率いる研究チームは、この問題に10年以上取り組んできた。2021年、同チームは脳幹卒中を患った人の脳活動を捉え、その信号を書き言葉での単語や文に変換できることを示した。ただし、変換スピードはゆっくりしたものだった。最新の論文で、研究チームはインプラントをクレジットカードほどに大きくして、電極数を2倍にし、当時とは別の患者であるアン …
- 人気の記事ランキング
-
- How ChatGPT search paves the way for AI agents 脱チャットGPTへ、オープンAIが強化するプラットフォーム戦略
- Promotion Innovators Under 35 Japan Summit 2024 in Nihonbashi 2024年のイノベーターが集結「U35 Summit」参加者募集中
- Why AI could eat quantum computing’s lunch AIの急速な進歩は 量子コンピューターを 不要にするか
- This AI-generated Minecraft may represent the future of real-time video generation AIがリアルタイムで作り出す、驚きのマイクラ風生成動画
- Inside a fusion energy facility 2026年の稼働目指す、コモンウェルスの核融合施設へ行ってみた