脳に埋め込まれた電極はジョンの手足を動かそうとする(実際には動かない)神経活動を読み取って、右手に該当する活動ならYES、左足に該当する活動ならNOというように対応付けするように設計されていました。

ですが観測された電気活動は一貫性がなく、3カ月にわたる試みの結果、ジョンの意思読み取れていないことが判明します。

そこで研究者たちは電極から観測される脳の電気活動の強さを、ジョンにも聞こえるような音の高低に置き換えるプログラムを開発しました。

このプログラムでは脳の活動が高いときには高音が響き、低い時には低音が鳴ります。

すると結果は上々であり、ジョンは自分の脳活動をなんとかして操作して、研究者が要求する音の高さに合わせることができるようになりました。

そこで研究者たちは観測される電気活動から感度の高いニューロンを探し出し、ジョンがより音を正確に制御できるようにシステムを調整していきました。

脳の歌を正しい音階に合わせる練習
脳の歌を正しい音階に合わせる練習 / Credit:Ujwal Chaudhary et al . Spelling interface using intracortical signals in a completely locked-in patient enabled via auditory neurofeedback training(2022) . Nature Communications

結果、ジョンはYESならば高い音、NOならば低い音といったように、特定の意思と音の音色を連動させられるようになりました。

成功を受けて研究者たちは、システムのさらなる改良に乗り出します。

脳の活動レベルを音として表現し、脳の歌声をより複雑なコミュニケーション……言葉に変換できる可能性があったからです。

最初の言葉は「ありがとう」

脳の歌を使って文字を選ぶ
脳の歌を使って文字を選ぶ / Credit:wyss Center . Completely locked-in man uses brain-computer interface to communicate