Inteligência Artificial e Direitos da Mulher: como os algoritmos funcionam
loader-logo

Ana Catarina Alencar

Ana Catarina Alencar
Especialista em Direito Digital e Compliance. Mestre em Direito pela Universidade Federal de Santa Catarina (UFSC). Professora no Curso de Graduação em Direito da Unisociesc/Joinville. 

Inteligência Artificial e o Futuro dos Direitos da Mulher: como a discriminação algorítmica nos afeta?

Turivius: sua nova forma de fazer pesquisa jurisprudencial tributária

Máquinas podem tomar decisões discriminatórias com base em preconceito de gênero? Como e porque isso acontece? No marco do Dia Internacional da Mulher trazemos uma importante discussão sobre a “igualdade digital” das mulheres na era da IA. 

Leia também:

A Inteligência Artificial no Poder Judiciário Brasileiro: entendendo a nova “Justiça Digital”

A Inteligência Artificial é uma forma de poder. Como toda boa forma de poder tem o potencial de atuar melhorando esquemas sociais e econômicos ou subjugando grupos e vigiando a intimidade dos indivíduos. Esses são apenas exemplos para ilustrar que na mão de seres humanos inseridos em um determinado contexto, a Inteligência Artificial jamais será uma ferramenta completamente “neutra”. Ela pode ser utilizada para uma multiplicidade de fins e conduzir a uma enormidade de resultados não intencionados.

No marco do Dia Internacional da Mulher, uma reflexão sobre como a Inteligência Artificial pode atuar com vieses discriminatórios colocando em risco décadas de avanços em igualdade de gênero é urgente e pontual. É necessário falar sobre “igualdade digital” na era do Big Data e da Inteligência Artificial.

Isso não implica em dizer que as lutas por direitos já conhecidos, incluindo a equidade de cargos e salários, o respeito à liberdade sexual e reprodutiva da mulher, entre outras, devam ser relegadas a um segundo plano. A digitalização das sociedades e a pervasividade da tecnologia em nosso dia a dia criaram desafios nunca antes vistos, impondo a necessidade de se pensar sobre novos direitos. Por isso, uma disputa de narrativa deve ser travada também no campo da IA aplicada às discussões de gênero para além das pautas mais convencionais.

Atualmente, várias situações concretas já demonstram como a Inteligência Artificial pode atuar com vieses discriminatórios, reforçando estereótipos de gênero. Isso ocorre não porque a Inteligência Artificial seja “má” em si mesma ou “defeituosa”, mas, porque a máquina aprende a partir de dados coletados em uma sociedade eminentemente complexa e desigual.

Assim, os dados que formam a base da IA poderão estar carregados de estereótipos de gênero, não representarem adequadamente as mulheres ou abarcar classificações que contribuem para decisões discriminatórias em sistemas automatizados. 

Vamos aos exemplos. No campo das aplicações de IA para a área da saúde, estudos apontam que os bancos de dados utilizados em aplicativos médicos, por vezes, contribuem para diagnósticos equivocados quando um sintoma é apresentado por uma mulher. 

Como grande parte dos dados era baseado na biologia masculina, os resultados de diagnósticos para mulheres eram majoritariamente enviesados: enquanto uma forte dor no braço esquerdo e costas poderia significar um princípio de infarto para homens, esses mesmos sintomas eram apontados como depressão para mulheres. Além de contribuir para o risco de morte ou complicações graves em mulheres, esta resposta do algoritmo reforça um estereótipo de gênero muito comum segundo o qual os sintomas físicos de mulheres estariam ligados a sentimentos e emoções, enquanto os sintomas de homens teriam causa física de maior urgência.

Outro exemplo que contribui para o risco à vida das mulheres foi verificado na indústria de cintos de segurança e airbags. Os sistemas utilizados desenhavam esses produtos com base em testes conduzidos com bonecos de corpo masculino. Logo, os dados coletados nesses testes não incluíam aspectos do corpo das mulheres nas medidas padronizadas, como seios ou a barriga de uma mulher grávida. A falta de um olhar atento à questão de gênero neste caso, implica em uma maior chance de acidentes no percentual de 47%, bem como 17% maior chance de óbito das mulheres relativamente aos homens. 

Além de contribuírem para a invisibilidade da mulher em produtos e serviços, algoritmos podem tomar decisões discriminatórias dificultando a realização dos direitos de mulheres e de outros grupos sociais. Essas decisões podem aparecer com maior frequência na contratação de seguros, empréstimos e produtos relacionados à saúde, bem como em processos de recrutamento e seleção para empregos.  

Exemplificando como isso ocorre, imagine que uma instituição financeira mantenha um banco de dados dos empréstimos concedidos nos últimos 50 anos. O algoritmo desse sistema aprenderá, por meio desse conjunto de dados, como aprovar ou rejeitar um pedido de empréstimo com base em alguns critérios. Se, historicamente, a maioria dos empréstimos aprovados foi concedida a homens e apenas uma minoria de empréstimos de mulheres foi aprovada, o algoritmo poderá repetir esse padrão, rejeitando propostas de mulheres. 

Adicionalmente, outros dados podem ser inferidos dos dados iniciais levando o algoritmo a repetir um padrão relacionado ao gênero. Lacunas no histórico de renda de mulheres em anos potencialmente férteis ou, períodos sem trabalhar, podem indicar ao algoritmo que ali está uma consumidora mulher.  

No universo do trabalho, um estudo da Universidade de Melbourne mostra que em vários processos de seleção e recrutamento currículos de mulheres tiveram pontuação menor atribuída pelos algoritmos do que currículos de homens. Isso porque os critérios de pontuação utilizados pela máquina incluíam critérios de contratação favorecidos pelo empregador como, ausência de períodos sem trabalho entre registros e graduação em universidades específicas onde a quantidade de homens é, geralmente, maior. 

Esses exemplos chamam a atenção para a necessidade de que empresas e profissionais de tecnologia tenham um olhar treinado para as questões de gênero ao elaborarem produtos e sistemas. É necessário pensar as questões de gênero dentro da tecnologia e isso passa, necessariamente, pela inclusão das mulheres nesse debate. 

De acordo com o Gender Gap Report do Fórum Econômico Mundial, a esmagadora maioria dos profissionais de Inteligência Artificial é composta de homens, representando 72% dos postos de trabalho. Nas gigantes de tecnologia como a Microsoft, somente 28,6% dos cargos é ocupado por mulheres. Já no Facebook, esse percentual é de 37%. Por isso, o aumento da representatividade e da diversidade dos times de tecnologia é uma demanda necessária, a fim de que se possa treinar o olhar para questões de gênero evitando a geração de algoritmos tendenciosos.

Outra materialização comum do estereótipo de gênero em sistemas de IA diz respeito à identificação de gênero nessas máquinas. A maioria das assistentes virtuais hoje existentes são identificadas com gênero feminino, como Siri e Alexa. Por isso, podem ser representadas com traços físicos, características comportamentais e voz feminina.

Há uma certa simbiose entre o papel de assistente ou de uma posição “servil” e de “cuidado” a terceiros com o universo do feminino. Por outro lado, máquinas superinteligentes como Watson da IBM são apresentadas com gênero masculino. O importante a se observar nessa discussão é como o reforço do viés de gênero reproduz pressuposições sobre o papel da mulher como submisso e secundário em relação ao papel do homem. 

Do ponto de vista do Direito, esse debate ainda é insipiente e não contamos com uma regulação específica ao uso de Inteligência Artificial no Brasil e no mundo. No cenário brasileiro, em 2020, foi proposto o projeto de lei nº 21/20, de autoria do Senador Eduardo Bismarck (PDT/CE) que concebe a figura do “agente de Inteligência Artificial”.

Esses agentes podem ser empresas ou organizações que desenvolvam sistemas de Inteligência Artificial, os quais passariam a ter responsabilidade pelas decisões geradas pelo sistema e obrigatoriedade à elaboração de um “Relatório de Impacto de Inteligência Artificial”. 

Neste relatório, o desenvolvedor de IA deverá disponibilizar uma descrição transparente da tecnologia e as medidas de segurança aplicadas. Assim como ocorre com o relatório de impacto exigido atualmente pela LGPD, o relatório de IA poderá ser solicitado pelo poder público com recomendações para o fortalecimento de sistemas e melhor proteção dos direitos dos usuários. 

Há experiências de diretrizes e princípios orientadores sendo produzidos por autoridades internacionais. A Autoridade Nacional de Proteção de Dados do Reino Unidos (ICO), emitiu orientações sobre Inteligência Artificial e proteção de dados pessoais, destacando a necessidade de supervisão humana e auditoria das decisões automatizadas com base no que já dispunha o General Data Protection Regulation (GDPR). 

No contexto brasileiro, o artigo 20 da Lei Geral de Proteção de Dados (LGPD) preceitua a revisão das decisões completamente automatizadas que impactem nos direitos de titulares de dados pessoais, como as mulheres nos casos exemplificados acima. Esta previsão da LGPD já representa um grande avanço no combate da discriminação algorítmica com base no gênero, trazendo a possibilidade de responsabilização às empresas e seu dever de explicação, transparência e accountability

Inteligência Artificial e Direitos da Mulher: um futuro desafiador

Hoje, além de uma forma de poder, a IA representa um universo não totalmente apreendido nos seus efeitos. A partir dela, inúmeras soluções inovadoras podem ser criadas gerando impacto social positivo e moldando o futuro em diferentes direções.

Por isso, é fundamental que a Inteligência Artificial não seja uma narrativa predominantemente masculina. É importante pensar em uma Inteligência Artificial plural: uma tecnologia aberta à concretização da igualdade das mulheres também no âmbito da sua existência digital. 

Leia também:

Inteligência Artificial e Proteção de Dados: seria este o maior desafio à LGPD?

Inteligência Artificial aplicada à pesquisa jurisprudencial

Inscreva-se para receber notícias

Não perca nenhuma notícia publicada no blog da Turivius!

Turivius: sua nova forma de fazer pesquisa jurisprudencial tributária

Share on linkedin
Share on whatsapp
Share on facebook
Share on twitter
Share on email

Publicações Relacionadas