Siri, Alexa, Cortana… Mais do que mera coincidência, essa escolha é baseada em estereótipos de gênero e pode dificultar ainda mais a vida das mulheres.
As empresas de tecnologia justificam essa escolha apontando pra estudos que mostram que os consumidores preferem as vozes femininas às masculinas. Mas o X da questão é exatamente esse: por que as pessoas se sentem mais confortáveis dando ordens a uma voz feminina?
Segundo o relatório da Unesco I’d Blush if I Could, que atenta pra essa problemática, as assistentes de voz são concebidas com vozes e nomes femininos por conta de estereótipos de gênero que, na nossa sociedade, colocam as mulheres como mais obedientes e complacentes.
O problema não está exatamente na forma que tratamos a Siri, a Alexa ou a Cortana. Mas sim em como, mesmo que de forma inconsciente, essa realidade pode perpetuar no imaginário comum construções sociais machistas — por exemplo: a de que as mulheres têm a obrigação de estar sempre disponíveis pra cuidar e auxiliar o outro.
Trecho do relatório I’d Blush if I Could
Outra questão apontada são as respostas das assistentes virtuais a xingamentos ou assédios verbais. O próprio título do relatório — em português, “Eu coraria se pudesse” — era a resposta padrão da Siri quando alguém lançava um palavrão à ela. Hoje, ela foi alterada para “não sei como responder a isso”.
Grande parte do problema — e da sua solução — está na falta de diversidade no universo da tecnologia e da inteligência artificial. Segundo estudo da Revelo, empresa de tecnologia no mercado de recrutamento e seleção de profissionais, as mulheres representam apenas 12,7% das áreas de programação e TI.
No Brasil, já existem várias iniciativas que têm como objetivo mostrar para as mulheres que elas podem — e devem — ocupar as áreas relacionadas à tecnologia. Bons exemplos são a Elas programam, a RePrograma e a Minas Programam.