Jornalismo Júnior

Página inicial
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

O real problema da IA: como ela reproduz preconceitos

Para além da ficção científica, os problemas reais relacionados à Inteligência Artificial devem ser levados em consideração em uma época de constantes inovações tecnológicas

Por Gabriela Cecchin (gabrielacmr@usp.br)

Em março de 2016, os usuários do Twitter tiveram acesso à Tay, uma Inteligência Artificial (IA) na forma de um perfil, que deveria interagir com jovens on-line e aprender com eles. Porém, em menos de 24 horas, a máquina teve de ser desligada pois passou a apresentar comportamentos racistas, machistas e antissemitas.

Tradução adaptada dos tweets da Tay. [Imagem: Gabriela Cecchin/Acervo Pessoal]

Isso aconteceu por meio da adaptação do chatbot ao meio virtual. Assim que foi lançado, diversos usuários se organizaram para fazer com que Tay apresentasse esse tipo de comportamento, ou seja, começaram a enviar milhares de tweets com essas mensagens discriminatórias, que Tay passou a reproduzir.

Murilo Shinnoda, programador que se interessou pelo caso, comenta o assunto: “Apesar de muitas pessoas, desde a época até hoje, abominarem a IA — como se o conceito da tecnologia fosse o problema —, poucas pessoas param para analisar que ela se alimenta do que nós humanos informamos. Esse deveria ter sido o assunto mais abordado sobre o que aconteceu na época”.

Davi Martins, usuário do Twitter naquele ano, também acompanhou o evento. “A ideia era muito interessante e despertou o interesse de muita gente, mas a notoriedade dela veio mesmo quando ela começou a dar respostas controversas, que eram fruto da interação com os trolls (usuários inconvenientes e provocadores) da internet que a alimentaram com conteúdo de ódio e afins”, diz ele. “A repercussão foi bem grande, lembro do ocorrido ser noticiado em jornais da grande mídia e muito comentado aqui no Twitter.” Davi também conta que ficou desanimado com aquilo: “Era preocupante pois parecia que esse era o rumo que as inteligências artificiais iriam tomar se dependessem dos humanos para adquirir conhecimento”.

Com o passar do tempo, o estudo sobre Inteligência Artificial cresceu exponencialmente, também para evitar escândalos como o da Tay. Mesmo assim, o problema se repete de forma mais implícita. Um exemplo é a Stable Diffusion Online, plataforma de conversão de texto para uma imagem gerada por IA. Ao pesquisar termos como “CEO” — sigla em inglês para diretor ou diretora-executiva —, o site mostra, em sua maioria, imagens de homens brancos, colaborando para a construção de um perfil pouco diverso de pessoas em cargos de poder.

Imagens geradas ao pesquisar “CEO” no site da Stable Diffusion. [Imagem: Reprodução/ Stable Diffusion Online]

Isso não quer dizer que a IA é preconceituosa. Na verdade, o termo “Inteligência Artificial” é bastante amplo e, geralmente, refere-se às tentativas de criar máquinas cada vez mais parecidas com os seres humanos. Em uma dessas tentativas, os cientistas alimentam o computador com um banco de dados para que ele busque padrões nessas informações. Ou seja, não existe um pensamento real por parte da IA — ela é apenas a reprodução de ideias e informações humanas, incluindo as partes ruins dessas ideias. No caso da Stable Diffusion, a falta de diversidade nos cargos de CEO ao redor do mundo faz com que a IA entenda que essas posições tendem a  ser ocupadas por um determinado grupo de pessoas, o que contribui para perpetuar esse tipo de preconceito.

A carta aberta e a ficção científica

Nos últimos meses, popularizaram-se mecanismos como o ChatGPT, da OpenAI, e o BERT, da Google — os chamados LLMs (Large Language Models ou Grandes Modelos de Linguagem em português) —, que são um tipo de Inteligência Artificial muito grande, treinada com quantidades de informação que se multiplicam a cada ano. Cathy O’Neil, Ph.D. em Matemática pela Universidade de Harvard e autora do livro ‘Algoritmos de Destruição em Massa’, conversou com a Jornalismo Júnior sobre o assunto: “Os LLMs são compostos de conteúdo na internet e, portanto, refletem esse padrão de fala e de pensamento. Então sabemos que vai refletir todo tipo de coisas como classismo, racismo e sexismo, porque é assim que nosso mundo funciona”.

Em março de 2023, uma carta aberta foi publicada pela organização Future of Life Institute pedindo uma pausa de seis meses no desenvolvimento de Inteligências Artificiais mais potentes do que a GPT-4. O documento foi assinado por especialistas conhecidos na área, como Elon Musk — cofundador da OpenAI, desenvolvedora do ChatGPT — e Emad Mostaque — fundador e CEO da Stability AI. Na mensagem, é demonstrada uma preocupação com uma tecnologia que consegue ”competir com os seres humanos” e que poderia se tornar “mais esperta do que nós”.

Nas redes sociais e na mídia, houve diversas repercussões. Entre elas, o medo de que os robôs pudessem dominar o mundo, tal como nos filmes de ficção científica. Porém, existe um risco real de que a Inteligência Artificial possa ultrapassar a inteligência humana?

“Os computadores já são muito melhores em computar somas e produtos. Você acha que isso significa que eles nos ultrapassaram? Eu não acho”, diz Cathy O’Neil. “Sempre vai ser uma questão do que queremos dizer com inteligência e do quanto confiamos nos computadores para prever coisas ou fazer decisões sobre assuntos que são importantes para os humanos. Corremos o risco de dar muito poder a algoritmos burros, mas isso é porque nós temos uma tendência de projetar consciência em coisas que não são conscientes nem sábias.”

Cathy também concorda que os cientistas que assinaram a carta podem ter seus julgamentos influenciados por histórias de ficção científica. [Imagem: Divulgação/ 2001: Uma Odisseia no Espaço]

A carta não reconhece explicitamente os problemas atuais da IA, tais como os preconceitos e vieses embutidos nela — esse assunto é mencionado apenas na página de “perguntas frequentes” da organização. Sendo assim, o conteúdo da carta corresponde a preocupações genuínas?

“É difícil dizer”, diz Cathy. “Essas são pessoas que geralmente recebem financiamento para nos distrair com preocupações teóricas futuras em vez de focar nas preocupações reais atuais. Isso não quer dizer que nenhum deles pense que é genuíno, mas acho que a maioria das lideranças percebe que é de seu interesse alimentar o medo existencial e evitar falar sobre problemas atuais que já estão acontecendo”.

Problemas do passado e projeções para o futuro

Em 2018, a Amazon decidiu testar a eficiência da Inteligência Artificial para contratar pessoas. O teste consistia em alimentar a máquina com os dados de contratação dos dez anos anteriores e fazer com que o programa identificasse padrões nessas informações, para aplicá-los nos currículos novos. Porém, esses dados antigos apresentavam poucas mulheres, e isso fez com que o sistema entendesse que deveria contratar apenas homens para as funções. A situação causou um escândalo na época e provocou mudanças no programa.

Anos depois, a IA tem sido amplamente utilizada para a contratação de pessoas no mercado de trabalho. Plataformas como Gupy e Recrut.AI são divulgadas como ferramentas que diminuem erros no recrutamento e aceleram o processo. Muitos desses sistemas até reconhecem e prometem evitar os vieses, por meio da omissão de dados pessoais como gênero e idade. Mesmo assim, ainda é incerto se podemos confiar nesse tipo de tecnologia para tomar decisões que afetam em grande escala a população.

 Meredith Broussard, em seu livro “More Than A Glitch”, fala sobre esse fenômeno de confiar no computador para solucionar todos os problemas existentes. Ela chama essa atitude de “tecnochauvinismo” (“chauvinismo” é um termo que significa patriotismo fanático ou agressivo e “tecno” vem de tecnologia).

“‘Tecnochauvinismo’ é uma espécie de viés que considera soluções computacionais como superiores a todas as outras soluções”, escreve a autora. “Isso é geralmente acompanhado por noções igualmente falsas como ‘algoritmos são imparciais’ ou ‘computadores tomam decisões neutras porque suas decisões são baseadas em matemática’. Os computadores são excelentes para fazer matemática, sim, mas, repetidamente, vemos sistemas algorítmicos falharem na tomada de decisões sociais”.

No livro, Meredith fala sobre a necessidade de uma tecnologia voltada para o interesse público, que incluiria um algoritmo auditável e responsável e teria a população como tema central, em vez do lucro. Uma das ações para atingir esse objetivo seria a auditoria algorítmica. Ela consiste em analisar os possíveis riscos e vieses nos algoritmos em busca de uma revisão e correção de problemas, para garantir que essas tecnologias estejam cumprindo as leis vigentes. Nos Estados Unidos, a empresa ORCAA (O’Neil Risk Consulting & Algorithmic Auditing), da própria Cathy O’Neil, e a organização AJL (Algorithmic Justice League), de Joy Buolamwini, buscam tratar dessa temática.

Bruna Shinohara, doutora em Física, fala sobre essa questão da ética em IAs: “No futuro, teremos o problema de lidar com uma Inteligência Artificial Generalizada (AGI), ou seja, quando as IAs serão capazes de fazer mais do que apenas tarefas específicas. O problema central em AGIs é lidar com o que chamamos de ‘alinhamento’: como fazer com que os objetivos e valores éticos que damos para as máquinas sejam de fato os objetivos que elas irão buscar? Como evitar danos colaterais? Esse alinhamento é de interesse público, mas o discurso que vemos nas redes sociais, por exemplo, parece oscilar entre os extremos de ‘a IA não vai fazer nada’ e ‘a IA vai ser o fim da espécie humana’. Então, é bem difícil ter um debate sério e aberto necessário para uma discussão democrática do que uma AGI deve buscar.”

O tema continua sendo abordado de diversas formas, inclusive pelos Estados. Em dezembro de 2022, uma comissão de juristas apresentou um texto ao Senado Federal sobre a regulação da Inteligência Artificial no Brasil. De acordo com a proposta, haveria a necessidade de uma transparência e explicabilidade dessas tecnologias, além da participação humana nas decisões de IA. O projeto seria um substitutivo dos PLs 5.051/2019, 21/2020 e 872/2021.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima