「私の人工音声はどうかしら?」と、コンピューターの画面に映し出された女性が緑色をした目を少し見開いて尋ねる。映像は明らかにコンピューター処理されており、音声もたどたどしいが、それでも画期的な瞬間だ。この映像は、18年前に脳卒中で発話能力を喪失した女性のデジタルアバターだ。脳インプラントと人工知能(AI)アルゴリズムを取り込んだ実験の一環として、現在この女性は、本人の声を複製した音声で語り、アバターを通じて限られた範囲の表情を伝えることもできる。
8月23日にネイチャー(Nature)誌に掲載された、2つの別々の研究チームによる2本の論文は、この分野がいかに急速に進歩しているかを示している。ただし、いずれもまだ概念実証に過ぎず、このテクノロジーが広く一般に提供されるようになるまでに、非常に長い道のりがまだ待ち構えている。 どちらの研究も、明瞭に発話する能力を喪失した女性を対象にしており、一人は脳幹卒中、もう一人は進行性の神経変性疾患であるALSが原因で話せなくなった。参加者はそれぞれ別のタイプの記録装置を脳に埋め込んでおり、2人とも1分間に60語から70語ほどのスピードでなんとか話す。通常の発話スピードのほぼ半分だが、以前の報告時に比べて4倍以上速い。カリフォルニア大学サンフランシスコ校の脳外科医エドワード・チャンが率いるチームは、表情を作り出す微小な動きを制御する脳信号を捉えることで、被験者の発話行為をほぼリアルタイムで表現するアバターの作成にも成功した。
2本の論文は「非常にエレガントで厳密な脳の科学と工学を象徴するものです」。カナダ・バンクーバーにあるブリティッシュコロンビア大学の脳神経倫理学者であるジュディ・イレス教授は言う(同教授はどちらの研究にも関与していない)。表情を表すことができるアバターが追加された点を、イレス教授は特に評価した。「コミュニケーションは人と人の間の単なる言葉のやりとりではありません。声の調子、表情、強勢、文脈を通じて伝えられる言葉やメッセージなのです。こうした人間性の要素を実際に基礎科学、工学、ニューロテクノロジーに持ち込もうとしたのは、創造的でとても思慮深いことだと思います」。
チャン医師率いる研究チームは、この問題に10年以上取り組んできた。2021年、同チームは脳幹卒中を患った人の脳活動を捉え、その信号を書き言葉での単語や文に変換できることを示した。ただし、変換スピードはゆっくりしたものだった。最新の論文で、研究チームはインプラントをクレジットカードほどに大きくして、電極数を2倍にし、当時とは別の患者であるアン …