Японские исследователи разработали технологию, позволяющую распознавать слоги, возникающие в мыслях человека, путём анализа мозговых волн.
Это означает, что в недалёком будущем станет возможно производить набор текста без использования слов или рук.
Команда исследователей полагает, что данная технология может способствовать развитию описанной в научной фантастике системы нейрокомпьютерного интерфейса, которая подразумевает обмен информацией между мозгом и электронным устройством.
Вот так процесс работы описал член команды и почётный профессор в сфере обработки данных из Технического университета Тоёхаси Нитта Цунэо (新田 恒雄):
Мы изучали мозговые волны, возникающие, когда человек вспоминает различные слоги, без учёта данных о голосе.
Профессор также добавил:
Наша технология будет способствовать развитию оборудования, создаваемого для помощи людям с ограниченными возможностями речи, вызванными болезнью.
В ходе эксперимента учёные анализировали мозговые волны в момент, когда испытуемые произносили такие японские слоги, как «А», «И», «БА» и «БЭ». На голове участников было закреплено 64 электрода.

В результате исследователи определили, что область, в которой наблюдалась мозговая активность за 2 секунды до произнесения, менялась в зависимости от слога.
Если испытуемый не произносил слоги, это затрудняло анализ, поскольку в данном случае мозговые сигналы были слабыми. Об этом сообщила команда исследователей, включающая вышеупомянутого Нитта, профессора в сфере физиологии слуха Технического университета Тоёхаси Хорикава Дзюнсэй (堀川 順生) и других учёных.
Нитта регистрировал данные энцефалограммы для каждого произнесённого слога.
Сравнивая полученные графики мозговых волн исследовательская группа смогла научиться распознавать слоги.
В данный момент представляется возможным с успехом в 90% распознать цифры от нуля (zero) до девяти (kyu) по данным мозговых волн.
Технологиям, преобразующим звуки в символы, уже находят практическое применение.
Однако графики мозговых волн отличаются у разных людей, что на данный момент затрудняет практическое применение данной технологии.
Мы надеемся увеличить точность распознавания информации, создав набор базовых графиков мозговых волн и обеспечив возможность устройству подстраиваться под индивидуальные особенности человека, – говорит Нитта.
Мы планируем работать над гарнитурой, которую можно было бы подключить к смартфону.
Учёные собираются представить свои разработки в августе этого года на 18-й ежегодной конференции Международной ассоциации по речевой коммуникации Interspeech 2017 в Стокгольме.
____
А мы будем следить за успехами исследователей и строить догадки о том, возможно ли на самом деле читать мысли при помощи различных устройств. Можно предположить, что осуществить подобное проще с носителями японского языка, поскольку слоговое устройство всех слов предполагает ограниченное количество сочетаний звуков. В отличие, например, от нашего языка, где подряд может стоять несколько согласных. А как поступить, например, с китайским языком, где значение слова может меняться в зависимости от тона, с которым оно произносится? Что уж говорить о чтении мыслей глухонемых людей.
Более того, стоит помнить и о том, что мозг японцев в принципе отличается от мозга европейцев. Так что задача поставлена действительно непростая, а учитывая все технические сложности, наверное, мы ещё долго сможем не бояться, что кто-то ненароком узнает наши сокровенные секреты.
Если вам есть, что сказать, пишите свои мысли, которые мы не можем прочитать, в комментариях к этой статье или в социальных сетях.
Источник: The Asahi Shimbun