O trabalho começou com pesquisadores que estudam cinco voluntários com epilepsia grave. Esses voluntários tinham eletrodos colocados temporariamente na superfície de seus cérebros para localizar a parte do cérebro responsável pelo desencadeamento das convulsões.
Como parte deste trabalho, a equipe também foi capaz de estudar a maneira como o cérebro responde quando uma pessoa está falando. Isso incluiu analisar os sinais cerebrais que se traduzem em movimentos do trato vocal, que incluem a mandíbula, laringe, lábios e língua. Uma rede neural artificial foi então usada para decodificar essa intencionalidade, que por sua vez foi usada para gerar uma fala sintetizada e compreensível.
Embora ainda esteja em um estágio relativamente inicial, a esperança é que esse trabalho abra algumas possibilidades interessantes. Um passo futuro envolverá a realização de ensaios clínicos para testar a tecnologia em pacientes que são fisicamente incapazes de falar (o que não foi o caso com esta demonstração). Também será necessário desenvolver um dispositivo de eletrodo com o tipo de alta capacidade de canal (256 canais neste último estudo) necessário para capturar o nível necessário de atividade cerebral.
Um projeto similar, realizado por pesquisadores no Japão , foi capaz de analisar imagens cerebrais de ressonância magnética funcional e gerar uma descrição escrita do que a pessoa estava vendo – como “um cachorro está sentado no chão em frente a uma porta aberta” ou “um grupo de pessoas em pé na praia.” À medida que essa tecnologia amadurece, mais e mais exemplos de trabalhos inovadores semelhantes surgirão.
Um artigo descrevendo o trabalho, intitulado Speech Synthesis From Neural Decoding of Spoken Sentences, foi publicado na revista Nature.