Redação do Site Inovação Tecnológica
"A biologia sintética, a inteligência artificial e a nanotecnologia são exemplos de áreas que podem criar os riscos novos mais sérios."[Imagem: US Department of Energy]
Risco existencial
Que riscos ameaçam o futuro da humanidade nos próximos cem anos? E o que devemos fazer para nos proteger contra eles?
Mais um grupo de pesquisadores se dispôs a abordar essas questões. O programa de pesquisa Risco Existencial para a Humanidade será conduzido por uma equipe multidisciplinar das universidades de Tecnologia de Chalmers e Gotemburgo, na Suécia.
De acordo com esse crescente grupo de pesquisadores, não basta nos concentrarmos nos riscos atualmente colocados sobre a mesa - guerra nuclear e mudanças climáticas. Há muitos outros perigos que também devem ser abordados, como vírus sintéticos, inteligência artificial descontrolada ou declínios dramáticos na produção mundial de alimentos.
Abordagem holística
De acordo com o professor Olle Haggstrom, os cientistas não costumam adotar abordagens holísticas para os problemas, mas eles têm uma importante responsabilidade de fazer isso. "Através do nosso programa de pesquisa, nós vamos trabalhar juntos para avançar o estado do conhecimento em relação aos riscos existenciais. Nós deveremos fazer uma avaliação abrangente de todas as ameaças e propor estratégias para lidar com elas," disse ele.
Haggstrom defende que os riscos existenciais - riscos que ameaçam todo o futuro da humanidade - são maiores hoje do que 50 anos atrás. Isso seria principalmente um efeito colateral do desenvolvimento tecnológico incrivelmente rápido e da disseminação global do conhecimento nas últimas décadas.
"A biologia sintética, a inteligência artificial e a nanotecnologia são exemplos de áreas que podem criar os riscos novos mais sérios. Ou seja, exatamente as mesmas áreas que são algumas das mais promissoras para resolver muitos dos problemas da humanidade e aumentar a prosperidade no mundo," disse Haggstrom.
Evitar os problemas, não a tecnologia
Um elemento importante do programa de pesquisa será a realização de discussões entre especialistas de várias partes do mundo sobre como reduzir os riscos dessas novas tecnologias sem bloquear as enormes possibilidades que elas oferecem.
"Nós queremos desenvolver um conhecimento de ponta, mas é igualmente importante comunicar o conhecimento já disponível para um público mais amplo," finalizou o pesquisador.
Outros esforços nesse sentido incluem o Instituto do Futuro da Humanidade, na Universidade de Oxford, e o Centro para o Estudo do Risco Existencial, na Universidade de Cambridge, ambas no Reino Unido, além do Grupo AI100, da Universidade de Stanford, nos EUA, focado nos riscos da inteligência artificial.
Nenhum comentário:
Postar um comentário