Redação do Site Inovação Tecnológica
As redes neurais com reservatório simplificam drasticamente o processo de treinamento, que pode levar meses nas redes convencionais. [Imagem: Chao Du et al. - 10.1038/s41467-017-02337-y]
Rede neural de memoristores
As redes neurais feita com memoristores - componentes eletrônicos que retêm uma memória do que lhes ocorreu anteriormente - prometem melhorar dramaticamente a eficiência do aprendizado de máquina, da inteligência artificiale dos computadores neuromórficos, que trabalham de forma mais parecida com o cérebro humano.
Uma demonstração de que isso está mais perto da realidade do que se imagina acaba de ser dada por Chao Du e seus colegas da Universidade de Michigan, nos EUA.
Eles construíram uma rede neural em hardware, chamada "sistema de computação de reservatórios", que consegue prever palavras e números que virão a seguir em um texto escrito - e o próximo passo será prever palavras antes que elas sejam ditas durante a conversação normal entre duas pessoas.
Sistemas de computação de reservatórios, que melhoram a capacidade de uma rede neural típica e reduzem o tempo de treinamento necessário, já foram criados no passado usando componentes ópticos grandes. Usar memoristores, componentes que podem ser fabricados em nanoescala, significa que o sistema pode ser facilmente integrado nos chips eletrônicos atuais com o mesmo nível de miniaturização.
Rede neural de reservatório
Inspiradas no cérebro, as redes neurais são compostas por neurônios, ou nós, e sinapses, as conexões entre os nós.
Para treinar uma rede neural para que ela execute uma tarefa, a rede é submetida a um grande número de questões e as respectivas respostas a essas questões. Uma vez treinada, uma rede neural pode então responder perguntas para as quais ela não sabe a resposta de antemão - por exemplo, identificar um rosto humano em uma imagem.
Os sistemas de computação de reservatórios construídos com memoristores, no entanto, podem dispensar a maior parte do processo de treinamento porque o componente mais crítico do sistema - o reservatório - não requer treinamento.
Quando um conjunto de dados é inserido no reservatório, o próprio reservatório identifica características relevantes nos dados e as entrega em um formato mais simples para uma segunda rede. Esta segunda rede só precisa de treinamento como as redes neuronais mais simples, alterando os pesos das características que a primeira rede lhe passou até atingir um nível aceitável de erro.
Protótipo do chip contendo uma rede neural com 88 sinapses feitas com memoristores. [Imagem: Chao Du et al. - 10.1038/s41467-017-02337-y]
Previsão de conversas
As vantagens desse aprendizado simplificado são tão mais significativas quanto mais complicada é a tarefa a ser executada. Por exemplo, identificar um rosto em uma imagem é uma tarefa relativamente fácil, enquanto aprender como uma pessoa entabula uma conversa real é muito mais complexo porque as variações são radicais e imensamente mais variadas.
Usando apenas 88 memoristores, a equipe conseguiu treinar a rede neural para que ela identificasse numerais escritos a mão com 91% de precisão.
O próximo passo será prever não palavras escritas, mas faladas. "Nós podemos fazer predições em linguagem falada natural, de forma que você não precisa falar a palavra toda. Nós podemos na verdade predizer o que você planeja dizer a seguir," garante o professor Wei Lu.
Enquanto construir um tradutor simultâneo é ainda um sonho para um futuro distante, os pesquisadores planejam usar sua rede neural para filtrar ruídos em sinais de telecomunicações, como a estática em transmissões de rádio, produzindo um fluxo mais limpo de dados. "Ela poderá também predizer e gerar um sinal de saída mesmo se o sinal de entrada for interrompido," prometeu Lu.
Bibliografia:
Reservoir computing using dynamic memristors for temporal information processing
Chao Du, Fuxi Cai, Mohammed A. Zidan, Wen Ma, Seung Hwan Lee, Wei D. Lu
Nature Communications
Vol.: 8, Article number: 2204
DOI: 10.1038/s41467-017-02337-y
Reservoir computing using dynamic memristors for temporal information processing
Chao Du, Fuxi Cai, Mohammed A. Zidan, Wen Ma, Seung Hwan Lee, Wei D. Lu
Nature Communications
Vol.: 8, Article number: 2204
DOI: 10.1038/s41467-017-02337-y
Nenhum comentário:
Postar um comentário