Los asistentes de voz como Amazon Alexa, Apple Siri, Microsoft Cortana y Google Home están ayudando a fortalecer y difundir el sexismo, según un estudio de las Naciones Unidas.
El estudio de la UNESCO con un título curioso: "Me sonrojaría si pudiera" (es la respuesta complaciente que da Apple Siri cuando recibe la insinuación de ser una prostituta) afirma que un software de este tipo perpetúa el estereotipo de la mujer servil y sumisa incluso cuando es maltratada.
"El hecho de que la mayoría de los asistentes de voz tengan voces femeninas y sean percibidas como mujeres transmite el falso mensaje de que la mujer es una ayudante dócil, disponible a todas horas con un simple botón o un 'hey' lanzado".
"El asistente no tiene poder asertivo con respecto a las órdenes que se dan. Honra los compromisos y satisface las solicitudes sin importar el tono o la hostilidad con que se hagan”.
La tendencia de los asistentes de voz a considerarse particularmente preocupante "desviar, pasar por alto o dar respuestas conciliatorias" cuando se insulta, lo que refuerza la creencia de que las mujeres son objeto de abuso y acoso.
"Empresas como Apple y Amazon, compuestas en su mayoría por equipos de ingenieros masculinos, han creado sistemas de inteligencia artificial que transforman a los asistentes de voz en entidades femeninas que cometen abusos coqueteando de forma pasiva y sumisa". El informe continúa.
El estudio de la UNESCO sugiere que los asistentes digitales deberían programarse para desalentar los insultos sexistas, que las empresas dejen de equiparlos en la base con voces femeninas y en todo caso doten de distintas representaciones a la mujer en las diversas manifestaciones de la inteligencia artificial que se dota a estos dispositivos.
La elección de dar una voz femenina predeterminada es el resultado de una investigación de mercado realizada por gigantes de la tecnología, pero el estudio refuta estas conclusiones argumentando que la mayoría de las personas prefieren una voz del sexo opuesto, no necesariamente femenina.