Topo

Máquinas podem se envolver em bate-boca (e isso é bom para entendê-las!)

Discussões entre inteligências artificiais podem ser um mecanismo de segurança - Getty Images/iStockphoto
Discussões entre inteligências artificiais podem ser um mecanismo de segurança Imagem: Getty Images/iStockphoto

Lucas Baranyi

Colaboração para o UOL Tecnologia

20/05/2018 04h00

Uma das maiores preocupações em torno da evolução de inteligências artificiais é o nosso próprio controle sobre elas. Como, afinal de contas, garantir que a criação não supere os criadores? Segundo especialistas, é mais simples do que parece: basta colocá-las para discutir entre si.

Quem afirma isso são pesquisadores da organização sem fins lucrativos OpenAI, fundada por alguns dos maiores nomes do Vale do Silício - incluindo Elon Musk, executivo-chefe da Tesla e SpaceX, Reid Hoffman, cofundador da LinkedIn e Peter Thiel, empresário e membro do conselho do Facebook. 

VEJA TAMBÉM

Segundo os próprios pesquisadores, sistemas de inteligência artificial autodidatas podem, por vezes, demonstrar hábitos inesperados e indesejados, como encontrar uma falha dentro de um jogo e explorá-la para atingir uma pontuação maior. Neste caso, a falha pode ser corrigida e supervisionada por um humano - mas, considerando a possibilidade de trapaças e outros comportamentos impossíveis de controlar, a ideia foi colocar dois sistemas para debaterem entre si.

A ideia é que, a partir do bate-boca das máquinas, os humanos possam compreender como elas tomam decisões

Papo bom

Considere o seguinte cenário: um sistema inteligência artificial é desenvolvido com o objetivo de defender-se de humanos ou de outras inteligências artificiais - poderia, por exemplo, ser o sistema de defesa de uma usina nuclear. Para evitar que sistema atacado tome alguma medida antiética ou potencialmente perigosa, é importante obrigá-lo a explicar o processo lógico por trás de suas decisões.

Só há um problema: esse processo pode ser complexo demais para a mente humana. A saída, então, poderia ser um debate com outra inteligência artificial por meio de termos facilmente compreensíveis sob a observação de uma pessoa - que poderia mais tarde apontar para a máquina quais decisões geram resultados inaceitáveis sob a ótica humana.

A inteligência artificial da usina nuclear poderia explicar qual a sua lógica para explodir a usina em dez de desativá-la - e ser alertada por isso. 

“Acreditamos que este tipo de abordagem pode, eventualmente, nos ajudar a treinar sistemas de IA para realizar tarefas cognitivamente mais avançadas do que nós somos capazes, sem fugir das preferências estabelecidas por nós”, afirmaram em uma postagem escrita no blog da OpenAI que discute toda a ideia da pesquisa.

Persuasão 

Em um dos exercícios, duas inteligências artificiais tentaram convencer um observador sobre uma letra ou número que apenas as dupla digital poderia ver, revelando pixels enquanto realizam seus palpites.

Um site foi desenvolvido pelos pesquisadores para que os humanos assumissem o papel juiz e descobrissem quem estava falando a verdade.

Segundo Vicent Conitzer, pesquisador da Universidade de Duke, na Carolina do Norte, e estudioso de questões éticas envolvendo inteligência artificial, esta linha de trabalho está apenas no início - mas é promissora. “Criar sistemas de IA que podem explicar suas decisões é algo desafiador”, afirma. “Se os pesquisadores obtiverem sucesso, podem contribuir significantemente para o uso responsável destes sistemas.”

Carro na frente dos bois

Apesar de a ideia ser cheia de boas intenções, Ariel Procaccia, professor de ciência da computação na Universidade Carnegie Mellon, na Pensilvânia, aponta problemas. “Para debater questões ligadas a valores de uma forma compreensível para juízes humanos, os sistemas de inteligência artificial precisam ter uma noção sólida dos valores humanos em primeiro lugar", afirmou ao "Technology Review".

No fim das contas, ainda estamos bem distantes de sistemas inteligentes como a cultura pop já retratou em filmes como "Ela" (Her, 2013) e "Ex Machina: Instinto Artificial" (Ex Machina, 2014). Ainda assim, todo cuidado é pouco - e a ideia dos pesquisadores é garantir, desde já, que um dos segmentos tecnológicos mais surpreendentes e empolgantes da atualidade não saia de controle. Só é preciso entender como isso vai acontecer.

Cidadã e atração de TV, Sophia é a robô mais popular da atualidade

UOL Notícias