Topo

Como as empresas tentam impedir que as máquinas se voltem contra você

Divulgação
Imagem: Divulgação

Bruna Souza Cruz

Do UOL, em São Paulo

01/07/2017 04h00

O que vem a sua cabeça quando ouve falar sobre inteligência artificial (IA)? Filmes de ficção científica, robôs dominando o mundo, empregos sendo substituídos pelas máquinas?

Apesar de ainda ter muitos desafios -- como garantir a segurança e privacidade das pessoas --, a inteligência artificial já invadiu atividades de nosso dia a dia (os sistemas de tradução, por exemplo, aprendem novas línguas com a ajuda da IA) e estará cada vez mais presente em nossas vidas. E isso será algo positivo, segundo o carioca Rico Malvar, cientista-chefe do laboratório de pesquisas e inteligência artificial da Microsoft, em conversa com o UOL Tecnologia

Em seus mais de 20 anos de carreira, Rico acompanhou de perto as grandes (e rápidas) transformações na tecnologia. Para ele, a IA será a responsável por "potencializar a capacidade humana e ampliar a capacidade de fazer mais”. E, ao contrário das visões mais pessimistas, as chances de os computadores substituírem pessoas ou até mesmo passarem a agir de maneira descontrolada a ponto de fazer o mal são mínimas (se desenvolvidas corretamente).

O especialista explica que dentro da inteligência artificial os sistemas são capazes de aprenderem sozinhos sim, de preverem comportamentos e de se autoprogramarem com base nesses padrões, mas tudo é feito com supervisão humana. Por isso, ele acredita no trabalho constante para tentar impedir que as máquinas saiam se autogerindo e fazendo o que quiserem.

“É uma máquina esperta que vai entendendo o que você faz. Depois que aprende, por exemplo, os seus costumes, ela pode passar a oferecer sugestões de programas que ela já detectou que você mais gosta. A IA aprende a se auto programar depois de ser exposta a padrões, mas tudo acontece digamos com uma ‘supervisão adulta’”, explicou.

“Existe um cuidado muito grande para a gente colocar filtros dentro desse processo. Comandos do que é errado, por exemplo, vão sendo dados. O sistema aprende e passa a entender o que tem chance de ser certo e o que pode ser errado. Porque, se eu fizer um sistema que aprende e não tem nenhum controle, ele pode convergir para modos estranhos de comportamento”, acrescentou.

Malvar destaca que o filtro é criado de maneira conjunta entre pessoas e máquinas. “Para tudo temos que dar exemplos para o computador. É como uma criança que nasce não sabendo nada e a gente vai ensinado. Chega uma hora em que ela consegue decidir sozinha.”

Um exemplo prático dado pelo cientista são os palavrões dentro dos sistemas de tradução. Os algoritmos já conseguem detectar se um termo é palavrão ou não. Em algum momento alguém disse para eles que certas palavras não devem mais serem exibidas. Depois de um tempo, ele consegue sozinho identificar e avaliar o que pode ou não ser mostrado.

“Se todo mundo gosta de falar um palavrão, mas o palavrão não é uma coisa muito boa, o nosso sistema de tradução filtra e coloca um asterisco”, resumiu.

De qualquer forma, é claro que não é possível garantir que 100% das inteligências artificiais desenvolvidas seguirão esse padrão. Mas, segundo Rico, é a forma ideal para minimizar futuros problemas.

“Às vezes acontece [de um algoritmo começar a agir de modo estranho]. A gente não é perfeito, mas tem o maior cuidado e tenta minimizar a chance do sistema aprender alguma coisa errada”, ressaltou.

Um caso do ano passado ilustra bem o “acontece de vez em quando”. O sistema inteligente da Microsoft chamado Tay causou uma saia justa para a empresa. Em seu perfil no Twitter, o robô que simulava conversas humanas e aprendia com base nas interações com internautas passou a publicar frases racistas e misóginas.

Tudo porque vários internautas começaram a interagir reforçando o conteúdo inapropriado. Em determinado momento, ela aprendeu que os comentários seguiam um padrão e passou a replicar o comportamento aprendido.

Robô; inteligência artificial - iStock - iStock
Para especialista, inteligência artificial monitorada por humanos tem menos riscos de problema
Imagem: iStock

Segurança e privacidade

Outro grande desafio da inteligência artificial está ligado à privacidade do gigantesco volume de dados que ela trabalha. Imagine que para que o sistema consiga reconhecer um gato numa imagem foi preciso que ele aprendesse e registrasse em seu banco inúmeras combinações de espécies, tipos, tamanho, cores, entre outras características.

Agora, pensa em todo esse processo sendo feito com qualquer coisa (pessoas, objetos, animais, plantas...) que você imaginar? E como fazer com que tudo isso não seja usado de formas ruins?

Além da capacidade de armazenamento e processamento de informações que os sistemas precisarão ter, o local em que tudo isso ficará guardado precisa ser seguro.

Segundo Malvar, só com uma central de processamento de dados na nuvem (em que o armazenamento não fica numa máquina local) é possível ter a inteligência artificial funcionando em toda sua potencialidade. E, segundo ele, a nuvem é a tecnologia mais segura atualmente, já que ela geralmente armazena toda a informação com criptografia.

“É muito difícil quebrar um sistema na nuvem [pelo menos em relação aos sistemas com que trabalha]”, afirmou. “As chances de alguém conseguir roubar algo que está na nuvem e manipular esses dados são muito difíceis. Mesmo que consigam, hipoteticamente falando, eles não vão conseguir acessar as informações, pois elas estão criptografadas. E também não usamos senhas 1, 2, 3, 4”, brincou o cientista.

Vamos perder nossos empregos para a máquina?

A visão do cientista da Microsoft é bem otimista. Para ele, isso jamais acontecerá. O que teremos é a otimização de processos de um lado e ao mesmo tempo um aumento da capacidade humana.

“A medida que a inteligência artificial nos ajuda a ser mais produtivos, ela vai transformar os empregos. Imagina que você trabalha só anotando números. Ela passará a fazer isso por você e você terá mais tempo para se dedicar a atividades mais produtivas”, destacou.

“Não é tirar empregos, é transformar. Só que as pessoas terão de evoluir e se adaptar.”