Robô vai flagrar se máquina inteligente é 'preconceituosa' ou enviesada

Helton Simões Gomes

Do UOL, em São Paulo

  • PhonlamaiPhoto

Não é só no Spotify ou filme no Netflix que a máquina toma decisões por humanos. Plataformas de inteligência artificial já decidem que pena dar a criminosos nos EUA e indicam quais pessoas são mais propensas a cometer crimes no Reino Unido. Claro, você não liga para a sua playlist ser repleta de pop dos anos 90. Mas, nos exemplos seguintes, os resultados das decisões podem ser mais graves: usar dados acumulados ao longo de outras experiências pode produzir decisões enviesadas ou preconceituosas.

Resolver esse problema é algo perseguido pelas líderes no setor, como Amazon, Google e Microsoft. A IBM apresenta sua arma: colocar um robô para flagrar quando seus companheiros estão derrapando.

VEJA TAMBÉM:

Fora do Brasil, não faltam casos em que sistemas de inteligência artificial reproduziram algum preconceito: nos EUA, ativistas relatam que eles já sentenciam negros a tempo maior de cadeia que brancos, mesmo que tivessem o mesmo histórico e cometido o mesmo crime. Sistemas de reconhecimento facial são eficientes para identificar homens brancos, mas deslizam quando têm o rosto de negros ou mulheres pela frente.

Se você treinou o modelo de inteligência artificial com base em dados permeados por preconceito, o algoritmo vai responder com base neles

Alexandre Dietrich, líder da IBM Brasil para Watson, plataforma de serviços cognitivos da companhia

Quando se trata de decisões enviesadas tomadas por inteligência artificial, o problema geralmente está nas informações dadas a esses robôs para que aprendam como um procedimento funciona.

No caso do reconhecimento facial, por exemplo, o estoque de rostos é formado quase exclusivamente por homens e brancos -- 75% e 80%, respectivamente --, conforme mostrou uma reportagem do jornal "New York Times" no começo do ano. Alguns desses vieses só são percebidos quando o robô já deixou de ser treinado e suas decisões podem influenciar a vida de gente de carne e osso.

O serviço da IBM começa a funcionar a partir desta quarta-feira (19) no sistema de computação em nuvem da empresa. Mas poderá ser usado para vigiar também a inteligência artificial de outras empresas.

Ele vai fazer duas coisas. Primeiro, demonstrar como o robô tomou uma determinada decisão (quais dados foram considerados, como foram processados etc.). Segundo, vai sinalizar se os fatores levados em conta podem ter gerado algum viés no resultado -- Dietrich exemplifica com uma hipótese: se um comparador de preços de imóveis receber somente informações de bairros de alto padrão de São Paulo, o viés apontado pelo robô será ter usado uma amostra bastante restrita de dados.

A princípio, seu uso será gratuito. Depois, outros modelos de cobrança serão introduzidos.

"O modelo é construído com base nos dados que você tem, mas, se a massa de dados não espelha a situação sobre a qual você quer fazer previsões, ele pode te dar um resultado parcial. É essa parcialidade que a gente quer ajudar as empresas a mitigar", diz Dietrich.

VEJA TAMBÉM:

Já existem sistemas semelhantes a esse, mas eles se restringem à etapa de treinamento das máquinas. O da IBM funciona enquanto a máquina está rodando para valer.

O executivo explica que há três razões para o robô ser criado. O primeiro deles é tornar mais justas as decisões tomadas por plataformas de inteligência artificial, de modo que não reproduzam dados coletados de ambientes já enviesados. O segundo deles é reduzir o caráter de caixa-preta que alguns algoritmos possuem e dar mais transparência ao modo como suas engrenagens giram -- às vezes, nem os próprios pesquisadores conseguem explicar qual foi o raciocínio ou as informações consideradas por um robô para que ele chegasse a uma resposta.

"Quando estamos discutindo o uso de inteligência artificial em empresas, é muito diferente do que dizer que você tem que pegar uma rota no trânsito ou indicar a música que você tem que escutar. Para essas situações, não faz muita diferença se você seguir ou não a recomendação. No mundo corporativo, você tem que explicar porque tomou uma decisão de negócio", explica Dietrich.

"Recomendar o próximo tratamento médico ou uma manutenção tem impactos econômicos significativos."

Uma pesquisa feita pela IBM apontou que o receio de não conseguir explicar o caminho trilhado por uma inteligência artificial para chegar a um resultado afasta empresas dessa tecnologia.

O terceiro razão para criar um desses sistemas são as leis de privacidade que entraram em vigor recentemente. Tanto o GDPR, na Europa, quanto a Lei Geral de Proteção de Dados Pessoais, no Brasil, exigem que empresas que disponham de processos automáticos que usem informações de indivíduos para tomar decisões a respeito dele tenham de mostrar como o processo ocorreu.

Getty Images/iStockphoto

GDPR: nova lei europeia fecha cerco à exploração de dados pessoais e influencia o comportamento das empresas por todo o mundo

Entenda

Receba notícias pelo Facebook Messenger

Quer receber as principais notícias do dia de graça pelo Facebook Messenger? Clique aqui e siga as instruções.

Veja também

UOL Cursos Online

Todos os cursos