sábado, dezembro 14

A transformação digital mudou a maneira como trabalhamos e nos divertimos.

Mas o progresso tecnológico nem sempre se traduz em progresso social no que diz respeito à paridade de gênero. Alguns aspectos da tecnologia reforçaram, em vez de combater, os estereótipos sexuais. (Leia também: O que as mulheres na tecnologia querem?)

Aqui estão algumas áreas-chave que reforçam o sexismo e os estereótipos de gênero na inteligência artificial (IA):

Cultura Bro no Trabalho

Embora a tecnologia e a IA continuem avançando, o mesmo não pode ser dito para as posições das mulheres nesses campos dominados por homens. As mulheres ainda ocupam pouco mais de um quarto (26%) dos dados e posições de IA, de acordo com o Fórum Econômico Mundial.

Essa falta de representação significa que a maioria das mulheres que trabalham em tecnologia – 72%, de acordo com a TrustRadius – ainda precisam lidar com a cultura mano. Isso pode se traduzir em um ambiente muito tóxico e até perigoso para as mulheres.

No caso da empresa de jogos de realidade virtual (VR) Activision Blizzard, a cultura dos irmãos no local de trabalho levou a salários desiguais, assédio sexual e até agressões sem consequências reais para os perpetradores. O Wall Street Journal informou que o CEO, que sabia sobre má conduta, interveio para garantir que os culpados de má conduta de investigações internas não fossem demitidos conforme as recomendações.

Cultura Bro em jogo

O sexismo que permeia as empresas produtoras de jogos também cria um ambiente hostil para as jogadoras.

Em 2021, a Reach3 Insights pesquisou 900 mulheres e descobriu que 59% delas optaram por nomes de gênero neutro ou até masculinos ao jogar para evitar o assédio sexual.

Mais de três quartos das mulheres pesquisadas (77%) relataram ter que lidar com algum tipo de desconforto como mulher. O julgamento sobre suas habilidades foi relatado por 70% e o gatekeeping por 65%. Metade relatou comentários condescendentes e 44% disseram que “receberam perguntas de relacionamento não solicitadas durante o jogo”.

Algumas mulheres têm uma experiência ainda pior na realidade virtual. Jordan Belamire escreveu “My First Virtual Reality Tate”. Um avatar chamado BigBro442 persistiu em tatear seu avatar apesar de seus pedidos e ordens para parar. Belamire observou:

“À medida que a VR se torna cada vez mais real, como decidimos o que cruza a linha de um aborrecimento para um ataque real? Eventualmente, vamos precisar de regras para domar o oeste selvagem do multijogador de VR.”

Novas plataformas, mesmo velho problema

Outra questão é: quando “eventualmente” vai chegar?

Belamire escreveu “My First Virtual Reality Groping” em 2016 e, mais de cinco anos depois, um incidente semelhante foi relatado no The Verge. Um testador beta do “Horizon Worlds” de Meta relatou que seu avatar foi tateado na plataforma e relatou o quão perturbador ela achou o incidente.

“Assédio sexual não é brincadeira na internet comum, mas estar em RV adiciona outra camada que torna o evento mais intenso”, escreveu ela. “Não só fui apalpado ontem à noite, mas havia outras pessoas lá que apoiaram esse comportamento que me fez sentir isolado no Plaza.”

A plataforma da Meta oferece um recurso de bloqueio, que pode dar um pouco mais de controle àqueles que entram em um espaço onde qualquer pessoa pode se aproximar do seu avatar. Mas esse tipo de solução ainda não está à altura do que Belamire sugeriu: um código de conduta ao qual os jogadores teriam que aderir.

O fato de o assédio sexual continuar sendo um problema sério – que transita do mundo real para o virtual – reflete o fato de que a sociedade ainda está atolada em certas suposições de gênero. E essas suposições também se expressam em formas mais sutis.

O que a Siri diz sobre nós

A igualdade de gênero deveria ter avançado desde meados do século passado, mas as suposições de gênero que permanecem em vigor na tecnologia cotidiana nos lembram que ainda temos um longo caminho a percorrer.

Esse foi o foco de um estudo recente da UNESCO intitulado “Eu coraria se pudesse”.

O título do estudo é uma frase que a assistente de voz feminina da Apple, Siri, foi originalmente programada para dizer em resposta aos usuários que a chamavam de um nome sexista. A Apple atualizou a programação da Siri no início de 2019 para oferecer um “não sei como responder a isso” mais apropriado para a máquina quando alguém faz tal declaração ao agente de IA.

Mas ainda assim, é preciso se perguntar por que a empresa demorou tanto. A Siri foi lançada em 2011 e não deveria ter levado quase oito anos para reconhecer e resolver um problema de suposições sexistas.

Como o relatório aponta, “a obsequiosidade ‘feminina’ de Siri – e o servilismo expresso por tantas outras assistentes digitais projetadas como mulheres jovens – fornece uma ilustração poderosa de preconceitos de gênero codificados em produtos de tecnologia, difundidos no setor de tecnologia e aparentes em habilidades digitais Educação.”

O que há em um nome?

Ironicamente, a Amazon, cujo nome se refere a uma feroz raça de mulheres guerreiras, manteve suposições sexistas sobre as mulheres quando lançou seu agente de IA. O nome de Alexa é derivado de Alexandria, uma cidade cuja fama no mundo antigo era sua biblioteca, de acordo com Daniel Rausch, chefe da divisão “Smart Home” da Amazon.

Rausch disse ao Business Insider que a ideia por trás de referenciar Alexandria com o nome de Alexa era capturar a ideia da coleção original de volumes da biblioteca antiga, que abrigava “todo o conhecimento coletivo do mundo naquela época”. Como aquela cidade antiga recebeu o nome de Alexandre, o Grande, a Amazon poderia muito bem ter chamado seu agente de “Alex”, um nome usado por homens e mulheres.

Mas a empresa decidiu pela versão distintamente feminina do nome, assim como a Apple optou pelo feminino “Siri” e a Microsoft criou a Cortana. Provavelmente, todas as empresas fizeram o mesmo tipo de pesquisa de mercado que a Amazon disse que fez. (Leia também: Como a IA mudará o cenário de pesquisa de mercado?)

Por que a IA usa vozes e avatares femininos

Na entrevista do Business Insider, Rausch disse que a Amazon “descobriu que a voz de uma mulher é mais ‘simpática’ e melhor recebida”. O artigo continuou dizendo que essa preferência por vozes femininas antecede os assistentes de IA.

De fato, até o computador a bordo da Enterprise falava com uma voz feminina. A voz era de fato a de Majel Barrett-Roddenberry, esposa do criador da série “Star Trek” e mais reconhecida pelos fãs por seu papel recorrente como a enfermeira loira perfeitamente penteada, Christine Chapel, que teve que obedecer obedientemente às ordens do Dr. .McCoy.

É verdade que existem agentes de IA vinculados a identidades masculinas, como Chandra Steele, da PC Mag, observou em um blog do Medium em 2018. Mas eles normalmente estão vinculados a tarefas mais sérias do que aquelas relegadas ao assistente virtual em seu desktop ou telefone. Assim, o Watson da IBM, que está associado a coisas como pesquisa médica, recebeu a “voz masculina” que as pessoas associam com confiança e liderança. (Leia também: Os 20 principais casos de uso de IA: inteligência artificial na área da saúde.)

Em contrapartida, as vozes femininas estão associadas à cordialidade e complacência. “Embora não tenham corpos”, explicou Steele, “eles encarnam o que pensamos quando imaginamos uma assistente pessoal: uma mulher competente, eficiente e confiável”.

Às vezes, os assistentes virtuais recebem até um corpo virtual feminino – pelo menos um que aparece na tela. Esse é o caso da agente cognitiva da IPsoft, Amelia; ela é retratada como loira que poderia estar em seus vinte anos. Ela encarna a mulher confiável que apoia o responsável, em segundo plano, mas também convencionalmente atraente.

Lidando com a raiz do problema

“Não há nada de artificial na IA”, declarou Fei-Fei Li, especialista na área. “É inspirado por pessoas, é criado por pessoas e – o mais importante – impacta as pessoas.” Assim como “garbage in, garbage out” se aplica a todos os dados, o mesmo vale para o que ela chama de “bias in, bias out” para sistemas de IA.

A vantagem disso, no entanto, é que é possível reformular o caminho que foi definido. No entanto, devemos fazer um esforço consciente para equilibrar as perspectivas alimentadas na IA. O fracasso em fazê-lo, disse Li, “reforçaria os preconceitos que passamos gerações tentando superar”. (Leia também: Cuidando da diferença de gênero: 10 fatos sobre as mulheres na tecnologia.)

O que precisamos fazer daqui para frente é combater conscientemente a cultura mano, seja ela expressando efeitos abertamente nocivos, como no caso de assédio e agressão sexual, ou se manifestando de forma mais sutil, como nos estereótipos sexuais de entidades alimentadas por IA .

Para conseguir isso, é importante que as vozes das mulheres sejam ouvidas – não como ajudantes complacentes, mas como iguais aos seus colegas masculinos no trabalho e no lazer.

Giselle Wagner é formada em jornalismo pela Universidade Santa Úrsula. Trabalhou como estagiária na rádio Rio de Janeiro. Depois, foi editora chefe do Notícia da Manhã, onde cobria assuntos voltados à política brasileira.