CIÊNCIA E TECNOLOGIA

Cientistas avisam que humanidade não será capaz de controlar máquinas superinteligentes

'Uma máquina superinteligente que controle o mundo soa como ficção científica. Mas já existem máquinas que realizam certas tarefas importantes de forma independente'

Por Jornal do Brasil
[email protected]

Publicado em 14/01/2021 às 09:16

Alterado em 14/01/2021 às 09:16

Os últimos avanços no campo da inteligência artificial (IA) permitiram a criação de robôs capazes de realizar diversas tarefas Foto: Creative Commons

Usando cálculos teóricos, uma equipe internacional incluindo cientistas do Instituto Max Planck para o Desenvolvimento Humano (Alemanha), mostra que seria impossível controlar máquinas superinteligentes.

Os últimos avanços no campo da inteligência artificial (IA) permitiram a criação de robôs capazes de realizarem tarefas domésticas, carros autônomos ou softwares que conseguiram esclarecer mistérios para a ciência. No entanto, enquanto maiores progressos acontecem nesta área, cientistas avisam sobre os potenciais perigos no desenvolvimento de IA muito poderosas.

Neste sentido, uma equipe internacional de pesquisadores realizou uma série de cálculos teóricos para explorar as possibilidades de manter sob controle uma IA superinteligente. Como resultado, os cientistas concluíram que seria fundamentalmente impossível controlar este tipo de tecnologia.

"Uma máquina superinteligente que controle o mundo soa como ficção científica. Mas já existem máquinas que realizam certas tarefas importantes de forma independente sem que os programadores entendam completamente como aprenderam [...] situação que poderia em algum momento se converter em algo incontrolado e perigoso para a humanidade", comentou Manuel Cebrian, um dos autores do artigo.

Durante o estudo, que foi publicado recentemente no Journal of Artificial Intelligence Research, os cientistas experimentaram duas ideias para manter uma IA superinteligente sob controle. Uma delas foi isolá-la da Internet e de outros dispositivos para limitar o seu contato com o mundo exterior, o que reduziria significativamente sua capacidade de responder a demandas a qual foi destinada.

Da mesma forma, a equipe "desenvolveu um algoritmo de contenção teórico que assegura que uma IA superinteligente não possa danificar as pessoas sob nenhuma circunstância, simulando primeiro o comportamento da IA e parando-a se for considerada nociva". No entanto, uma análise sobre o atual paradigma de computação demonstrou que tal algoritmo não pode ser construído.

"Se decompusermos o problema em regras básicas de computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia interromper suas próprias operações. Se isso acontecer, você não saberá se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA nociva. Na verdade, isso torna o algoritmo de contenção inutilizável", concluiu Iyad Rahwan, outro autor do estudo.(com agência Sputnik Brasil)