Movimento para banir Sistemas Letais Autônomos

Na semana de 18/07 foi anunciado em Estocolmo, na Suécia, durante a Conferência Internacional Conjunta sobre Inteligência Artificial (IJCAI), um Compromisso sobre Sistemas Letais Autônomos, organizado pelo Future of Life Institute e assinado por grande parte dos principais líderes de P&D em Inteligência Artificial (AI, na sigla em inglês): mais de 160 organizações de 36 países e 2.400 indivíduos de 90 países. Participam empresas (como Google DeepMind), entidades (como a European Association for AI), e líderes da área (como Elon Musk). Subscreveram, dentre os brasileiros, a Sociedade Brasileira de Computação (SBC) e vários pesquisadores: Fernando Osório e Marcelo Finger, da USP; Sérgio Campos e Vinicius dos Santos, da UFMG; J. A. Quilici-Gonzalez (UFABC); Mariana Broens (Unesp); Itala D’Ottaviano (Unicamp); e Fernando Câmara (Instituto Stokastos). Todos se comprometeram em não participar nem apoiar “o desenvolvimento, a fabricação, o comércio ou o uso de Sistemas Letais Autônomos”. Além disso, convocaram os governos a criar leis, regulações e normas internacionais contrárias a seu desenvolvimento. 

Tal compromisso consiste num amplo movimento internacional em favor do banimento das Lethal Autonomous Weapons (LAWs). O próprio Future Life já havia divulgado uma carta pública com os mesmos propósitos na abertura da IJCAI de 2015. Em novembro de 2017, o movimento Ban Lethal Autonomous Weapons divulgou o vídeo “Slaughterbots”, com um cenário distópico em que aparece um enxame de drones com tamanhos de insetos atacando civis impotentes. Mais recentemente, em abril, 26 países (dentre eles Brasil e China) anunciaram uma posição a favor do banimento. É certo que a autonomia já é usada em sistemas de armas e que várias empresas (a americana Northrop Grumman, a britânica BAE Systems, a chinesa LeiShen Intelligent System e a israelita IAI) desenvolvem armas crescentemente automatizadas; mas as LAWs ainda não existem. Contudo há certo consenso de que seu desenvolvimento é uma possibilidade prática em poucos anos. Quais seriam as ameaças de uma eventual criação de “robôs assassinos” (killer robots) e o que justifica seu banimento? Identificamos duas linhas de justificação: razões ético-legais e razões pragmático-militares.

Do ponto de vista ético-legal é inaceitável a possibilidade de LAWs selecionarem e atirarem em alvos sem intervenção e decisão humanas (“controle humano significativo”). Como dizem os signatários, não se pode delegar a uma máquina a decisão de subtrair uma vida humana, impossibilitando a imputação de culpa e responsabilidade. Além disso, como dizem certos autores, os robôs não saberiam cumprir exigências de convenções internacionais: matar humanos respeitando regras do direito humanitário; distinguir entre combatentes e civis; e analisar os danos colaterais proporcionais à vantagem militar. Do ponto de vista pragmático-militar, é importante começar por considerar as capacidades das AIs. Segundo os autores de um relatório sobre as ameaças potenciais nos “Usos Maliciosos da Inteligência Artifcial” (20/02/2018), as AIs possuem uma capacidade de exceder as habilidades humanas na realização de um mesmo objetivo por causa de sua eficiência, de sua escalabilidade, de sua pronta difusão e da possibilidade de cumprimento dos fins com anonimato e com distância espaço-temporal e psicológica. Das LAWs derivam ameaças. Primeiro, se construídas, elas serão prontamente difundidas, desencadeando uma corrida armamentista. Segundo, sua possibilidade de realizar, em anonimato, fins à distância gera não apenas problemas de imputabilidade, mas também tira freios humanos ético-existenciais; com isso, “ao remover o risco, a imputabilidade e a dificuldade em se tirar vidas humanas, [as LAWs] poderiam se tornar poderosos instrumentos de violência e de opressão”. Por fim, a sua eficácia sobre-humana aumenta o potencial destrutivo, mesmo nas mãos de pequenos Estados ou grupos, sendo um instrumento potente para governos autoritários e grupos terroristas ou paramilitares.

Com o presente Compromisso, o movimento internacional parece mostrar força moral e política crescente. Esperamos que os argumentos sejam suficientes para que sejam acompanhados os precedentes no tocante a banimentos de tecnologias bélicas (armas químicas e biológicas, armas nucleares espaciais e armas a laser para cegar). Se o lema da segurança tem ainda apelo sedutor, lembremos, com a carta aberta de 2015, que “há muitas maneiras pelas quais a AI pode tornar os campos de batalha seguros para os humanos, especialmente meios civis, sem [que seja necessário] criar novas ferramentas para matar pessoas”. 

** Doutor em Sociologia e diretor do Ateliê de Humanidades (ateliedehumanidades.com) 

** Engenharia de automação (UFBA) e livre-pesquisador do Ateliê de Humanidades