Мозковий імплант дозволив хворому на БАС говорити власним голосом


Американські вчені створили пристрій, який перетворює сигнали мозку на мовлення з емоціями та інтонаціями в режимі реального часу

Зображення ZME Science
Зображення ZME Science

Кейсі Харелл роками працював активістом із захисту клімату, виступав на публічних заходах та політичних зустрічах. Потім він втратив голос через бічний аміотрофічний склероз. Хвороба ослабила м'язи його рота та горла настільки, що він більше не міг чітко вимовляти слова. Тепер мозковий імплант допомагає йому знову говорити власним голосом з емоціями та інтонаціями в реальному часі.

Пристрій, який тестували дослідники з Каліфорнійського університету в Девісі, може перетворювати сигнали мозку на мовлення майже миттєво. Це частина зростаючої галузі, відомої як інтерфейси мозок-комп'ютер. Але цей пристрій вирізняється здатністю відтворювати природний ритм мовлення — не лише слова, але й висоту тону, наголоси та паузи, які роблять мову людською.

Система, описана цього тижня в журналі Nature, використовує штучний інтелект для відтворення мовлення безпосередньо з рухових сигналів мозку. Вона працює достатньо швидко для діалогу та навіть дозволяє користувачам співати короткі мелодії. Для людей, які втратили здатність чітко говорити, це означає значний крок вперед.

Харелл, якому зараз 47 років, отримав діагноз бічного аміотрофічного склерозу п'ять років тому. Нейродегенеративна хвороба поступово руйнувала нервові з'єднання, які дозволяли йому контролювати м'язи губ, язика та горла. Хоча він все ще міг видавати звуки, його мовлення стало незрозумілим.

У попередньому дослідженні Хареллу імплантували масив із 256 електродів у частину мозку, відповідальну за рух. Ці крихітні кремнієві датчики, кожен завдовжки лише 1,5 міліметра, фіксували електричну активність тисяч нейронів. У новому дослідженні вчені поєднали цей потік даних із моделлю глибокого навчання, яка перетворювала сигнали мозку на чутні слова зі швидкістю, майже не відрізнимою від природного мовлення.

Синтетичний голос не покладається на заздалегідь запрограмовані слова чи фрази. Він декодує звук, включаючи вигуки на кшталт «хм» або безглузді слова, які алгоритм ніколи не бачив. І він може змінювати інтонацію посеред речення.

«Ми включаємо всі ці різні елементи людського мовлення, які дійсно важливі», — сказала провідна дослідниця Майтрейі Вайрагкар. «Ми не завжди використовуємо слова, щоб передати те, що хочемо».

Ця нюансність є ключовою. В одному тесті Харелл використав систему, щоб промовити речення як твердження, так і як питання. Програмне забезпечення автоматично налаштувало висоту тону. В іншому він заспівав низку музичних нот у трьох тонах. Те, що вийшло з динаміка, було безпомилково його голосом, відтвореним із записів, які він зробив до того, як БАС забрав його.

Більшість попередніх мовленнєвих інтерфейсів мозок-комп'ютер працювали ривками. Вони могли перекладати лише повні речення після того, як людина закінчувала імітувати всю фразу. Деякі потребували до трьох секунд для відповіді, що занадто повільно для розмови.

«Ви не можете перебивати людей, не можете заперечувати, не можете співати», — розповів Science Сергій Ставіський, нейробіолог з Каліфорнійського університету в Девісі та співавтор дослідження, описуючи попередні пристрої. «Це змінює ситуацію». Нова система відповідає протягом 25 мілісекунд — приблизно стільки часу потрібно, щоб голос людини дійшов до її власних вух.

Добровольці, які слухали синтетичний голос Харелла, розуміли 60 відсотків того, що він говорив, порівняно з лише 4 відсотками, коли він намагався говорити без допомоги. Це ще не ідеально. Його текстовий інтерфейс мозок-комп'ютер, який використовує великі мовні моделі для інтерпретації кожного слова після того, як він його промовляє, все ще точніший — близько 98 відсотків. Але він також повільніший та жорсткіший.

«Це святий Грааль у мовленнєвих інтерфейсах мозок-комп'ютер», — сказав Scientific American Крістіан Герфф, обчислювальний нейробіолог з Маастрихтського університету. «Тепер це справжнє, спонтанне, безперервне мовлення».

Можливо, найцікавіше те, що система декодує не з фонем чи словникових статей, а безпосередньо зі звукових хвиль. Це відкриває двері для багатомовної підтримки — потенційно навіть для тональних мов, таких як китайська, та для збереження унікальних акцентів.

Успіх дослідження має застереження. БАС Харелла ще не деградував його руховий кортекс до нефункціонального стану. Залишається побачити, чи працюватиме та сама система у пацієнтів з різними неврологічними ушкодженнями, такими як інсульт.

Саме це дослідники планують з'ясувати далі. Нове клінічне випробування під керівництвом Девіда Брандмана з Каліфорнійського університету в Девісі тестуватиме імпланти з ще більшою кількістю електродів — до 1600 — у людей із різними порушеннями мовлення.

Мета, каже Вайрагкар, не просто відновити голос. Це відновити повний людський досвід розмови: спонтанність, емоції, ідентичність.

«Це свого роду зміна парадигми», — сказала Сільвія Маркесотті, нейроінженер з Женевського університету. «Це справді може призвести до створення інструменту для реального життя».

Для Харелла це вже є таким інструментом.

— За матеріалами ZME Science