これらの電極が15ミリ秒ごとに脳のニューロンの発火を記録し、AIがこれらの信号を処理して、本人の意図した動きをリアルタイムで画面上のカーソルに反映させます。

画像
脳に埋め込まれるBCIチップ/ Credit: Bradford Smith – Elon Musk makes ALS TALK AGAIN || Nonverbal ALS Patient Uses Neuralink to Create & Narrate Video(2025)

この装置は脳の運動皮質から「カーソルをどこにどう動かしたいか」という信号を読み取り、MacBook Proのマウスを“意思”だけで操作することを可能にするのです。

スミス氏は当初、「手を動かす」イメージを思い浮かべてカーソルを操作しようとしたものの、なかなかうまくいきませんでした。

しかし試行錯誤の末、「舌を動かす」「顎を噛みしめる」といったイメージを思い浮かべると、信号が安定して伝わることがわかり、思考によるマウス操作が格段に向上しました。

これにより、スミス氏はYouTube動画を編集し、世界初となる「Neuralink編集動画」を完成させたのです。

さらに驚くべきは、スミス氏の失われた声もAIによって再現されたことです。

実際の動画とともに見てみましょう。

以前の音声データから「クローンボイス」を作成

ALSは進行性の疾患であり、話す・動く・呼吸するなどの自発的な筋肉の動きが徐々に失われていきます。

スミス氏も例外ではなく、言葉を話す能力をすでに失っていました。

しかし彼が声を失う以前に録音されていた音声データをもとに、AIが「クローンボイス(合成音声)」を作成。

動画では、彼自身の声に極めて近い音声でナレーションが行われており、まるでスミス氏が再び話し始めたかのような印象を受けます。

発音もまったく違和感がありません。

実際の動画がこちら。

Neuralinkの技術により、スミス氏は昼夜問わず自由にコミュニケーションが可能となり、今では子どもたちと「マリオカート」を一緒にプレイするまでになっています。