quinta-feira, 25 de abril de 2019

INTELIGÊNCIA ARTIFICIAL TRADUZ PENSAMENTOS EM PALAVRAS...





A nova inteligência artificial, apresentada na quarta-feira (24) na revista científica Nature, foi testada em cinco pessoas com epilepsia.

Um grupo de neurocientistas da Universidade da Califórnia em São Francisco criou um implante cerebral que pode ler a mente das pessoas e transformar seus pensamentos em palavras por meio de um sintetizador de voz.   

A nova inteligência artificial, apresentada quarta-feira (24) na revista científica Nature, foi testada em cinco pessoas com epilepsia que têm elétrodos implantados no cérebro como parte de seu tratamento. O estudo, coordenado pelo especialista Gopala Anumanchipalli, abre o caminho para restauração da capacidade de se comunicar de pessoas que perderam a fala devido a uma doença neurológica, como um acidente vascular cerebral ou esclerose lateral amiotrófica (ELA).   

“Esta pesquisa é uma demonstração de que no futuro seremos capazes de criar ferramentas que traduzam o pensamento em ‘ações’ como a palavra”, disse à ANSA Carlo Miniussi, diretor do Centro de Mente e Cérebro (Cimec) da Universidade de Trento.   

Para o co-autor da pesquisa, Josh Chartier, a esperança é de que “as pessoas com deficiências da fala aprendam a falar novamente”, já que muitos pacientes que “não podem mover seus braços ou pernas aprenderam a controlar os braços robóticos com seus cérebros”.   

A tecnologia de leitura da mente funciona em dois estágios.   

Primeiro, um elétrodo é implantado no cérebro para captar os sinais elétricos relacionados aos órgãos que envolvem a linguagem, como os lábios, mandíbula, língua e laringe. Para aprender a interpretar os sinais cerebrais, os pesquisadores pediram aos voluntários que dissessem centenas de frases em voz alta. Logo depois, os sinais cerebrais que controlam os movimentos dos órgãos envolvidos foram analisados e o decodificador baseado em inteligência artificial os converteu em sons e palavras graças a um sintetizador. Nos testes, o sistema conseguiu articular 101 sentenças. “Nós pensamos que, se os centros de linguagem codificam mais os movimentos do que os sons, devemos fazer o mesmo”, afirmou Anumanchipalli.   

“Os níveis de precisão que alcançamos seriam uma grande melhoria para a comunicação em tempo real em comparação com as tecnologias atualmente disponíveis”, finalizou Chartier.

Nenhum comentário:

Postar um comentário