Assistentes digitais que respondem com voz feminina e que são apresentados como mulheres estão reforçando estereótipos sexistas, segundo relatório da ONU (Organização das Nações Unidas).
ANÚNCIO
Para os pesquisadores, esses programas são desenvolvidos para serem submissos e servis, o que inclui responder educadamente a insultos, e por isso reforçam a tendência de gênero e normalizam o assédio sexista.
Segundo o estudo, a maioria dos assistentes, como Siri (Apple), Alexa (Amazon) e Cortana (Microsoft) foram concebidos para parecer femininos, dos nomes até às vozes e personalidades.
Recomendados
Resultado da Lotofácil 3087: prêmio desta quarta é de R$ 3,7 milhões
Google não permitirá anúncios de políticos nas eleições de outubro
Novos suspeitos de trocarem malas com droga em aeroporto são presos
O relatório pede que as empresas invistam na criação de assistentes digitais com opções de gênero neutro e parem de adotar a voz feminina como padrão, além de programar os assistentes para que não estimulem insultos com base no gênero e a linguagem abusiva.
Leia também: