Topo

A inteligência artificial poderia virar arma nas mãos de terroristas?

Drones autônomos assassinos estão entre os temores do uso de IA por terroristas - Getty Images/iStockphoto
Drones autônomos assassinos estão entre os temores do uso de IA por terroristas Imagem: Getty Images/iStockphoto

Leonardo Luis

Colaboração para o UOL Tecnologia

02/10/2018 04h00

Muito se fala sobre a ameaça que a inteligência artificial pode representar para o mercado de trabalho, por seu potencial de substituir a mão-de-obra humana. Mas, nos últimos tempos, especialistas têm alertado para um risco associado à IA ainda mais assustador para a vida em sociedade: o de seu uso por terroristas.

"A inteligência artificial poderia ser usada maliciosamente de várias maneiras, inclusive para executar ataques com drones armados e ciberataques em larga escala", afirma Miles Brundage, pesquisador de inteligência artificial do Future of Humanity Institute, da Universidade de Oxford, e principal autor do documento "O Uso Malicioso da Inteligência Artificial: Previsão, Prevenção e Mitigação", assinado por 26 especialistas em IA de todo o mundo.

VEJA TAMBÉM

O documento menciona outras possíveis ameaças, como invasão de robôs e outras máquinas autônomas (menciona-se o exemplo hipotético de um robô de limpeza de um órgão governamental que invade a sala de uma ministra para assassiná-la com um explosivo), uso de voz sintetizada para imitar seres humanos com o objetivo de iludir pessoas para causar danos, "envenenamento" de dados para manipular máquinas de IA inimigas de forma imperceptível (com o objetivo de que elas se desenvolvam com falhas), uso de inteligência artificial para "phishing" (ou seja, criar emails tão personalizados que seria quase impossível para as vítimas não serem enganadas, entregando senhas e outras informações importantes), além da própria criação de robôs exclusivamente dedicados à destruição (como minidrones ou carros assassinos).

Pense no perigo de meios de transporte autônomos nas mãos erradas. Nos últimos três anos, em cidades como Nice, Barcelona, Paris, Londres e Berlim, veículos convencionais, com uma pessoa ao volante, foram usados para ataques em massa a transeuntes. Com carros autônomos, tragédias do tipo poderiam acontecer com impacto ainda mais violento e sem a presença física de motoristas, o que poderia estender a duração de um ataque.

Os drones também constituem uma ameaça crescente de terrorismo com uso de inteligência artificial. Ataques recentes ao presidente da Venezuela, Nicolás Maduro, e ao aeroporto de Abu Dhabi, capital dos Emirados Árabes, intensificaram a preocupação da comunidade internacional com esse risco. Um artigo de agosto do site do Fórum Econômico Mundial adverte sobre a necessidade de reação ao terrorismo de drones.

No ano passado, um vídeo produzido por Stuart Russell, professor da Universidade da Califórnia, em colaboração com o Future of Life Institute, mostrava minidrones inteligentes e autônomos sendo anunciados como uma grande novidade tecnológica e, depois, cometendo massacres que fugiam ao controle humano. O vídeo era um alerta sobre os riscos do uso da inteligência artificial para fins maliciosos.

Apesar de todos esses riscos serem reais, não há ainda registros de um ataque terrorista feito com uso de IA. Porém, a tecnologia já é aplicada por forças militares.

Na Rússia, uma máquina assassina desenvolvida pela Kalashnikov é capaz de identificar alvos e tomar decisões de matar por conta própria. Nos EUA, o Google esteve envolvido em uma polêmica e foi alvo de protestos de seus funcionários por uma parceria que fez com o Pentágono. A empresa participaria de um programa chamado Project Maven, que previa o uso de inteligência artificial para analisar imagens de drones militares. Em junho deste ano, anunciou sua saída do projeto.

Por enquanto, porém, existem algumas barreiras para que a IA vira arma. Uma delas é o custo: ainda é muito caro desenvolver um sistema inteligente - o investimento de empresas nesse segmento deve chegar a US$ 52 bilhões até 2021, segundo a consultoria IDC. 

A outra é o nível de especialização exigido para direcionar um sistema inteligente. A falta de profissionais na área causa até disputas entre as gigantes do mundo tecnológico.

"Terroristas nem sempre são muito competentes em usar tecnologias novas, e há hoje recursos muito mais simples e baratos para causar o caos. Mas, a longo prazo, é algo que todos os governos deveriam ter em seus radares, com certeza", diz Brundage.

Regulamentação

Em julho deste ano, mais de 2.400 pesquisadores de inteligência artificial do mundo todo assinaram uma petição contra o desenvolvimento de robôs assassinos.

Entre os signatários, está o professor brasileiro Fernando Osório, coordenador de robótica da Sociedade Brasileira de Computação. "Queremos impedir o uso de armas letais com tomada de decisão autônoma porque não podemos atribuir culpa a uma máquina. Só podemos responsabilizar pessoas", diz ele.

Osório explica que há uma linha clara entre um robô usado letalmente e outro programado para matar. O importante, segundo ele, é coibir a criação de programas que confiram a uma máquina o poder de decidir praticar um homicídio.

O holandês Daan Kayser, especialista em inteligência artificial do instituto Pax e também signatário da petição, diz que é preciso agir com rapidez porque, em poucos anos, o risco de robôs terroristas se tornará real.

"A tecnologia está se desenvolvendo em um ritmo acelerado. É importante que os estados implementem uma proibição preventiva das armas autônomas o mais rápido possível, para garantir que nunca sejam desenvolvidas. Essa é a única maneira de evitar que elas não se proliferem e sejam amplamente usadas por todos os tipos de atores", diz Kayser.