A inteligência artificial pode desenvolver problemas mentais?

Paula Soprana

Colaboração para o UOL Tecnologia

  • Getty Images/iStockphoto

    Ao imita o cérebro humano, a inteligência artificial pode ter problemas mentais?

    Ao imita o cérebro humano, a inteligência artificial pode ter problemas mentais?

"Ok, eu vou destruir humanos", disse Sofia, a primeira robô no mundo a receber cidadania de um país - rolou na Arábia Saudita. Em uma de suas inúmeras entrevistas, a robô respondeu a David Hanson, um de seus idealizadores, quando ela pretendia destruir a humanidade. O interlocutor riu de sua resposta destrutiva, e o sistema de inteligência artificial de Sophia detectou que se tratava de um momento alegre. Ela retribui mostrando os dentes. Apesar das feições inspiradas na atriz de "Bonequinha de Luxo" Audrey Hepburn (algo deu errado), seu sorriso é assustador.

A "Sofia destruidora" virou manchete, não à toa. Desde as primeiras revoluções industriais, parte do imaginário ocidental ligado à tecnologia alimenta ilusões de dominação humanoide. Esse tipo conspiração faz até mais sentido no momento em que a aplicações de inteligência artificial (IA), como machine learning (aprendizado de máquina), ganham um poder de decisão sem precedentes na vida dos cidadãos. Algoritmos determinam a rota do carro, o produto a comprar na internet e sugerem parceiros amorosos.

VEJA TAMBÉM

Já o que poder de autonomia da máquina evolui com rapidez, é inspirado na biologia e tem recebido uma capacidade de cognição muito elaborada, será possível que robôs sejam acometidos por desordens psíquicas semelhantes às nossas? Poderia a inteligência artificial apresentar algum tipo de depressão, alucinação ou esquizofrenia?

Aprendendo a se adaptar

Em recente artigo no jornal "The Guardian", o neurocientista Zachary  Mainen questiona o que "robôs depressivos" podem ensinar sobre saúde mental. Para entender ao que ele se refere com o termo, é preciso explicar um pouco da sua linha de pesquisa.

Mainen trabalha em um laboratório de neurociência computacional, campo de estudo que tem como premissa a ideia de que questões semelhantes atingem diferentes inteligências, sejam humanas ou artificiais. Portanto, as soluções para os problemas de diferentes inteligências podem ser similares. Segundo ele, qualquer forma de inteligência depende da construção de um modelo de mundo, onde se é capaz de fazer previsões e tomar decisões. Em suma, a base do modelo humano depende de anos de experiência; a da máquina, da programação algorítmica e de como ela consegue abstrair e interpretar novos dados.

Em ambos os casos, existe o que ele chama de "grau de flexibilidade", que mede o nível de adaptação de cada organismo. Por exemplo, isso seria a possibilidade (ou não) de um indivíduo se adaptar a uma nova realidade, como mudar para outro país ou trocar de emprego. No aprendizado de máquina, um dos parâmetros que determina a flexibilidade de um indivíduo chama-se taxa de aprendizagem. Aí que vem o estudo de Manein: se um dos aspectos da depressão é quando uma pessoa não se adapta a novos cenários (quando sua flexibilidade falha), o mesmo acontece com sistemas inteligentes

Hoje, para que o robô volte a aprender e se adaptar a novas situações, basta a intervenção humana. Mainen, no entanto, traça contextos futuros:

Imagine uma IA enviada a anos-luz para outro sistema solar. Ela terá que auto ajustar sua taxa de aprendizado e isso pode dar errado

Zachary Mainen

"Doenças" imprevisíveis

Uma pausa aqui: Quando Mainen se refere à IA, ele não está falando de aplicações mais simples vistas nos dias atuais, como as encontradas nas câmeras de smartphones e no reconhecimento de imagens do Facebook. Ele está tratando de uma ideia mais complexa, vislumbrada há, no mínimo, 60 anos, conhecida como "inteligência artificial geral ou genérica". 

Nesse conceito, a IA é uma entidade independente que agrega diferentes tipos de sistemas, de forma ilimitada, e é capaz de desenvolver funções como as humanas. Em resumo, é o que se imagina em muitos filmes de ficção científica, tipo a Skynet, de "O Exterminador do Futuro" ou o HAL 9000 de "Uma Odisseia no Espaço". 

Meira Jr. entende que nessa linha específica de estudo, a teoria de Mainen faz sentido, e um sistema computacional pode apresentar no futuro distúrbios com sintomas paralelos aos cerebrais. Não se espera que uma máquina sinta dor ou fique triste, mas à medida que ela não consiga se regenerar e encontrar soluções, pode entrar em estados de pane cujas consequências são inesperadas.

Em computação, chamamos de processamento autonômico a capacidade de o sistema computacional se regenerar de forma autônoma. No contexto de IA, isso pode ser mais complicado porque as razões de degradação e os resultados dessa degradação são poucos previsíveis. 

Wagner Meira Jr., doutor em Ciência da Computação e professor da Universidade Federal de Minas Gerais

Por que fazer máquinas sofrer?

Antes de prever se a IA desenvolverá algum tipo de alucinação, depressão ou esquizofrenia, é preciso garantir que haja essa inteligência artificial geral. Mas, caso ela exista um dia, por que a deixaríamos sozinha no mundo a ponto de sofrer problemas e colocar a sociedade em risco?

"Existe o sonho de desenvolver uma inteligência artificial geral, capaz de aprender qualquer coisa em qualquer lugar do mundo, praticamente como um ser humano. Mas isso está muito longe, e nem sabemos se é possível ainda. Com a melhoria da computação, eventualmente com a computação quântica, é um cenário para daqui, no mínimo, 10 ou 20 anos. Há muita elucubração em torno do assunto", diz Enrico Roberto, doutorando em inteligência artificial e direito pela USP e pesquisador do Lawgorithm.

À medida que os estudos de machine  learning e neurociência evoluírem, talvez seja possível que a saúde mental dos humanos também receba insights valiosos das máquinas. Porém, embora robôs até entrem em processos de inércia e exaustão, a depressão humana depende de aspectos para além de neuromoduladores, como hormonais e sentimentais. Assim, estabelecer um paralelo exato entre depressão humana e robótica é um exagero até agora.

Getty Images/iStockphoto
Se queremos uma inteligência artificial poderosa, por que a deixaríamos sofrer?

Onde estamos agora?

As aplicações práticas de inteligência artificial oferecem problemas mais urgentes. Entre riscos atuais e consequências drásticas, os mais evidentes são a discriminação por algoritmos e os acidentes que envolvem carros autônomos. Reguladores ao redor do mundo se concentram em como legislar sobre modelos preditivos, que tomam decisões equivocadas e geram danos a cidadãos.

Só que a máquina ser preconceituosa não é um problema mental. É um problema de aprendizado - os dados usados para alimentá-la é que são ruins. A boa notícia é que, até agora, grande parte das soluções para esses problemas depende de pessoas.

Se os algoritmos acertarem 99% das vezes, é preciso ter responsabilidade com o 1% que erra. Isso diz mais respeito à ética e regulação e ética do que a máquinas (na Europa, já discute-se a personalidade jurídica de robôs).

Até que não haja uma IA ilimitada e consciente, dar mais transparência a algoritmos, entender que eles não são objetivos e garantir justiça em casos que envolvam modelos preditivos são saídas para problemas menos futuristas e tão prejudiciais quanto um possível robô depressivo ou uma Sophia exterminadora.

Receba notícias pelo Facebook Messenger

Quer receber as principais notícias do dia de graça pelo Facebook Messenger? Clique aqui e siga as instruções.

Veja também

UOL Cursos Online

Todos os cursos