Человечество еще крайне далеко от создания универсальных нейроинтерфейсов вида «мозг–компьютер», но ученые уже неплохо справляются с отдельными задачами. Мы можем собрать массу данных о сигналах в мозге, но как именно их интерпретировать? В прошлом году канадские специалисты разработали алгоритм распознавания лиц увиденных людей по сигналам мозга. А недавно их американские коллеги создали метод декодирования сигналов из зоны слуха в мозге в понятную человеческую речь.
В основе эксперимента лежало изучение восприятия информации на слух разными людьми с позиции наблюдения за реакцией их мозга. Пятерым пациента внедрили электроды для считывания сигналов, после чего четыре исполнителя поочередно рассказали им одну и ту же историю. Слово в слово, но каждый со своей интонацией, громкостью, тембром и т.д. – важно было увидеть, как мозг реагирует на смысл слов, а не их подачу. Компьютеры записали сигнатуры сигналов для анализа, после чего началась испытательная фаза.
Подопытным озвучивали слова, фразы и выражения из услышанной истории в произвольном порядке. Наблюдатели отмечали их реакцию, собирали сигнатуры сигналов мозга, чтобы потом отыскать совпадения с ранее сделанными записями. Все эти данные и выявленные закономерности загрузили в нейронную сеть, чтобы обучить ее проводить параллели между словами и сигналами. А затем в тест добавили слова, которых не было в оригинальной истории – нейросеть по косвенным данным угадала и правильно воспроизвела их звучание в 75 % случаев.
Сейчас команда работает над новым алгоритмом, который позволит распознавать еще и смысл того, о чем думает человек. Речь уже идет если не о технологии чтения мыслей, то о чем-то близком. Как минимум — об интерфейсе для общения с теми, кто в силу физиологических проблем не может разговаривать привычным способом.