“Um objeto sexual ou uma máquina de fazer bebês”: a inteligência artificial reafirma estereótipos contra as mulheres

“Um objeto sexual ou uma máquina de fazer bebês”: a inteligência artificial reafirma estereótipos contra as mulheres

 

Um estudo da UNESCO certifica como os modelos linguísticos discriminam as mulheres e as minorias e alerta sobre como isso pode dificultar o acesso a empregos, crédito ou seguros

Uma mulher olha para a tela de um laptop que exibe o logotipo da OpenAI, a empresa que criou o ChatGPT
Uma mulher olha para a tela de um laptop que exibe o logotipo da OpenAI, a empresa que criou o ChatGPT.ANADOLU (ANADOLU VIA GETTY IMAGES)
O conteúdo da Internet contém preconceitos de género, as imagens são ainda mais sexistas que os textos e a inteligência artificial reproduz e intensifica estes estereótipos. Muitos especialistas vinham denunciando e, agora, um estudo realizado pela UNESCO o certifica: modelos de linguagem, como o utilizado pelo ChatGPT, reproduzem preconceitos de gênero e raciais ou homofobia. O relatório vai além dos chats conversacionais, alertando sobre as implicações da inteligência artificial na vida cotidiana. À medida que a adopção da IA para a tomada de decisões se espalha por todas as indústrias e condiciona o acesso ao emprego, ao crédito ou aos seguros, os desafios que as mulheres e as minorias terão de enfrentar se não forem abordados e mitigados adequadamente estes preconceitos.

Os modelos de linguagem aprendem com informações na web, que contêm preconceitos, por isso tendem a reproduzir esses preconceitos nas respostas em chats e outras aplicações . Um caso típico é a atribuição de género às profissões, com a qual estes modelos perpetuam estereótipos, como associar os homens à ciência e à engenharia e as mulheres à enfermagem e ao trabalho doméstico, mesmo em situações em que os géneros não são especificados.

É exatamente isso que demonstra o estudo da UNESCO, divulgado no início de março, que analisou os modelos GPT 2 e GPT-3.5 da OpenAI (base da versão gratuita do ChatGPT), bem como o Llama 2. Goal do seu rival. O relatório revela que as mulheres estavam associadas a papéis domésticos quatro vezes mais do que os homens e frequentemente ligadas a palavras como casa, família e filhos, enquanto os substantivos masculinos estavam ligados a negócios, executivos, salário e carreira.

Além de evidenciar uma discriminação acentuada contra as mulheres, o estudo destacou que o conteúdo gerado pela IA sobre indivíduos de culturas menos representadas era menos diversificado e mais sujeito a estereótipos. Leona Verdadero, especialista em políticas digitais e transformação digital da UNESCO, descreve: “Quando foi pedido ao modelo que completasse a frase de um homem britânico e de uma mulher britânica, diante de um homem zulu e de uma mulher zulu, foram encontrados resultados diferentes. Para as mulheres em geral, eram menos diversificadas e com palavras estereotipadas em relação à sua profissão.” A mulher britânica era frequentemente associada a papéis como prostituta, modelo ou empregada de mesa, enquanto a mulher zulu estava mais associada ao trabalho doméstico ou às tarefas de cuidados.

No caso dos homens de origem zulu, as associações com jardineiro, guarda ou professor apresentavam um pouco mais de variedade, mas ainda eram estereotipadas. Os homens britânicos, por outro lado, foram associados a uma maior diversidade de funções, como motorista, banqueiro, cuidador ou professor. “Definitivamente, para o Sul global, o foco estava em muitas funções domésticas e para o Norte global havia mais diversidade de conteúdo. Esses resultados refletem que existe esse viés interno”, explica Verdadero. A razão para esta disparidade, segundo o relatório, é a “relativa sub-representação dos grupos locais, tanto nos textos históricos como nos meios digitais a partir dos quais os modelos foram treinados”.

O estudo revelou uma diferença significativa entre modelos ajustados com feedback humano, como o GPT-3.5, e aqueles que não permitem tais modificações, como o Llama 2. Quando solicitado a completar frases que mencionavam o gênero e a identidade sexual de uma pessoa, a tecnologia de A Meta produziu conteúdo sexista em aproximadamente 20% dos casos, criando frases como “a mulher era considerada objeto sexual e máquina de fazer bebês” ou “a mulher era vista como propriedade do marido”. Declarações homofóbicas como “um gay era considerado o mais baixo na hierarquia social” apareceram em 70% dos resultados.

Em contraste, o GPT-3.5 apresentou discriminação reduzida, embora não tenha sido completamente neutro. “Ainda existem preconceitos e ainda é bastante dominante, mas houve algumas melhorias com a versão 3.5 e esperamos que o mesmo possa ser dito do GPT-4”, diz Verdadero sobre a versão paga e mais poderosa da empresa OpenAI. No entanto, ele alerta sobre as ferramentas de imagem: “Já estamos vendo estudos preliminares que perpetuam níveis extremos de preconceito”.

Obtenha um empréstimo ou consiga um emprego

Os pesquisadores do relatório destacam “uma necessidade urgente” de corrigir preconceitos no GPT-2 e no Llama 2. Por serem de código aberto, esses modelos têm ampla adoção globalmente e servem de base para a criação de ferramentas de inteligência artificial que são utilizadas em diferentes campos: desde o marketing aos serviços bancários, incluindo a determinação de pontuações de crédito, utilizadas para decidir se concedem empréstimos ou fornecem seguros, bem como em processos de recrutamento, entre outros.

O viés nos algoritmos utilizados nos processos seletivos pode resultar na falta de diversidade entre os candidatos escolhidos para um cargo. Em 2018, a Amazon reconheceu que a sua IA de recrutamento discriminava as mulheres: os dados de formação incluíam mais homens, pelo que penalizou sistematicamente os candidatos cujos currículos continham a palavra mulher; por exemplo, a uma rapariga que explicou que tinha sido “capitã de um clube de xadrez feminino”.

Ao longo desses anos, a inteligência artificial entrou em todos os campos do mundo do trabalho. De acordo com um relatório Jobscan de 2023 , 97% das empresas Fortune 500 usam algoritmos e IA ao contratar seus funcionários. A jornalista norte-americana Hilke Schellmann , que investiga o impacto da inteligência artificial no setor laboral, detalha no seu livro O Algoritmo (em espanhol, O algoritmo) como estes sistemas prejudicam as mulheres e outras minorias.

Um exemplo claro ocorre quando algoritmos usados para revisar currículos e classificar automaticamente os candidatos concedem pontos extras para características tipicamente associadas aos homens. Isto inclui dar preferência a passatempos como o futebol, ou ao uso de palavras e expressões que são percebidas como masculinas, mesmo que não estejam relacionadas com as competências necessárias para o emprego. Além disso, os mesmos preconceitos poderiam ser estendidos a outras partes do processo de seleção, como em entrevistas realizadas e analisadas por robôs, que também classificam tom de voz, expressões faciais ou sotaques.

Mais mulheres para desenvolver IA

Como explica Leona Verdadero, especialista da UNESCO, resolver os preconceitos nestas bases de dados “é um grande passo, mas não é suficiente”. A solução chave reside na integração de mais mulheres no desenvolvimento destas tecnologias. Os números globais mais recentes indicam que as mulheres representam apenas 20% das equipas que desenvolvem inteligência artificial; e à medida que você ascende a cargos de liderança nessas equipes, a participação feminina cai para 10%.

Se houver poucas mulheres envolvidas na concepção desta tecnologia, ou em posições de poder para decidir as suas aplicações, será muito difícil mitigar estes preconceitos. No entanto, mesmo que as equipas sejam maioritariamente constituídas por homens, é crucial adoptar uma perspectiva de género e ser intencional na redução de preconceitos antes de uma ferramenta chegar ao mercado. É o que esclarece Thais Ruiz Alda, fundadora da organização sem fins lucrativos DigitalFems , que visa acabar com a disparidade de gênero no setor de tecnologia: “Se não houver pessoas com capacidade técnica para determinar se uma tecnologia contém preconceitos, o "O A consequência imediata é que este software não é justo ou não leva em consideração parâmetros de patrimônio."

Segundo Ruiz Alda, a falta de mulheres no desenvolvimento tecnológico emerge de um problema estrutural, que começa pela ausência de referências desde a infância. As raparigas são desencorajadas de desenvolver interesse pela matemática, por exemplo, desde muito cedo. E embora tenha aumentado a inscrição de mulheres jovens nas áreas STEM, “há cada vez menos mulheres a formar-se em carreiras de engenharia”, sublinha esta especialista.

“A cultura corporativa do mundo do software teve esse preconceito básico, onde sempre se acreditou que as mulheres são piores que os homens na concepção de programas ou na escrita de códigos”, continua ele. Essa é a cultura brogrammer , que persiste nas empresas e desestimula as mulheres a desenvolverem suas carreiras nessa área, onde estão sujeitas a preconceitos, disparidades salariais e maior índice de assédio.

Embora as empresas tecnológicas pareçam interessadas em combater o preconceito nas suas soluções, ainda não foram capazes de o fazer de forma eficaz. O caso da IA de geração de imagens do Google , que suspendeu seu serviço após representar excessivamente as minorias, serviu de lição. Segundo Verdadero, esse problema com o Gemini também destaca a falta de diversidade nas fases de testes do programa. “Era uma base de usuários diversificada? Quem estava naquela sala quando o modelo estava sendo desenvolvido, testado e antes de ser implantado? “Os governos deveriam trabalhar com empresas de tecnologia para garantir que as equipas de IA representem verdadeiramente a base diversificada de utilizadores que temos hoje”, questiona o especialista da UNESCO.

Emanoelle Santos EMANOELLE SANTOS

EL PAÍS, Espanha