スタンフォード大学の研究者は、麻痺により発話が困難な人々を助けるために電極と人工知能を使用している。
カリフォルニアの科学者たちは、麻痺のために話すことさえできない人が頭の中で想像する内なる言葉を解読し、発声できる初の脳インプラントを開発しました。
研究者たちはこれまでも、口、舌、唇、声帯を動かそうとする時に脳の運動野から信号を拾うことで、話すことができない人に声を与えてきました。現在、スタンフォード大学のチームは、物理的な発話を試みる必要性を回避することに成功した。
「話すことを考えている時の脳活動がどのようになっているかを理解できたのは、今回が初めてです」と、Cell誌に掲載されたこのプロジェクトに関する論文の筆頭著者であるスタンフォード大学のエリン・クンツ氏は述べています。「重度の言語障害や運動障害のある人にとって、内なる言葉を解読できる脳コンピューターインターフェース(BCI)は、より容易に、より自然なコミュニケーションを可能にする可能性があります。」
障がいのある人々のコミュニケーションと移動を向上させるため、民間部門と学術部門でBCIの研究開発が精力的に行われています。今週発表されたサム・アルトマン氏のOpenAIが支援する新しいBCIベンチャー、Mergeは、イーロン・マスク氏のNeuralinkに対抗する企業です。
スタンフォード大学の研究には、筋萎縮性側索硬化症(ALS)または脳幹卒中により重度の麻痺を患う4人の被験者が参加した。クンツ氏によると、被験者の1人は目だけでコミュニケーションをとることができ、瞳孔を上下に動かして「はい」、左右に動かして「いいえ」と答えていたという。
BrainGate BCIコンソーシアムの電極アレイを運動皮質(発話を制御する脳領域)に埋め込んだ後、被験者は実際に発話するか、一連の単語を黙想するかのいずれかの指示を受けました。その後、AIモデルは個々の音素(発話単位)に関連する神経活動パターンを認識し、それらを組み合わせて文章を組み立てるようにトレーニングされました。
想像上の発話は、運動皮質において、実際に発話を試みた時のものと類似するが明確な違いのある活動パターンを示した。内なる発話からの信号は弱かったものの、十分に認識可能であり、リアルタイムで最大74%の正確性を示した。
スタンフォード大学の脳神経外科助教授であるフランク・ウィレット氏は、この解読結果は十分に信頼性が高く、インプラントのハードウェアと認識ソフトウェアの改良により、「将来のシステムでは、内声のみで流暢で速く、快適な発話を回復できる可能性がある」ことを実証するものだと述べています。
「麻痺のある人にとって、発話は遅く、疲れるものであり、麻痺が部分的な場合は、気が散る音が出たり、呼吸のコントロールが困難になったりすることがあります」と彼は述べています。この研究における重要な発見は、BCIが、参加者が想像するように指示されていない内なる声、例えば画面上の図形を数えている時の数字などを拾うことができたことです。これは、ユーザーの意図に反して個人的な思考が漏れてしまうという問題を提起しました。
プライバシー保護のため、スタンフォード大学の研究チームは、ユーザーがパスワードを想像してロックを解除しない限り、BCIによる内なる音声の解読を防ぐパスワード保護システムを実証しました。この研究では、「チッティ チッティ バンバン」というフレーズは、個人的な思考の無意識的な解読を98%の確率で阻止しました。
「この研究は、スピーチBCIが将来、日常会話と同じくらい流暢で自然で快適なコミュニケーションを回復できるという真の希望を与えてくれる」とウィレット氏は述べた。
2025年8月14日、The Financial Times
人気ブログランキングへ
にほんブログ村
No comments:
Post a Comment