IntelDig

Asistentes IA fomentan malos estereotipos de mujeres, dice la ONU

El machismo está alcanzando un nuevo nivel que trasciende incluso a los avances tecnológicos. Al menos así lo afirma la Organización de Naciones Unidas al acusar directamente a los asistentes de voz basados en inteligencia artificial (IA). Al parecer los asistentes IA de voz alimentan malos estereotipos de mujeres, según la ONU.

Un informe de la ONU afirma que los asistentes de voz de Inteligencia Artificial (IA) como Alexa y Siri están alimentando el estereotipo de que las mujeres están en gran medida “subordinadas”. Así lo dejó ver la publicación de la UNESCO (Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura) en un informe de 146 páginas titulado “Me sonrojaría si pudiera”. Este artículo destaca que el mercado actualmente está dominado por asistentes de voz femeninas.

Según los investigadores, el uso casi exclusivo de las ayudantes de voz femeninas alimenta los estereotipos de que las mujeres son “serviciales, dóciles y ansiosas de complacer a sus usuarios”. Los investigadores también creen que la falta de diversas maneras de hablar con los asistentes virtuales actuales también representan una problemática. Afirman que el hecho de que un asistente virtual responda a las solicitudes, sin importar cómo se las solicite, refuerza la idea de que las mujeres son “serviciales y tolerantes aún con el mal trato” en algunas comunidades.

De manera similar, el hecho de que los asistentes virtuales se puedan convocar con solo tocar un botón o con un comando de voz contundente como “OK” hace que parezca que las mujeres están disponibles a pedido de la persona sin importar la hora o momento que sea.

Como sabemos la mayoría de los asistentes virtuales usan voces femeninas por defecto pero ofrecen una opción masculina. Sin embargo, los grandes de la tecnología, como Amazon y Apple, han dicho en el pasado que los consumidores prefieren las voces femeninas para sus asistentes, ya que estas voces ofrecen rasgos más comprensivos y agradables para el público en general.

El informe destaca además, que los asistentes virtuales se crean predominantemente con equipos de ingeniería masculinos. También se encontró casos de acoso sexual a estos asistentes los cuales responden de manera favorable como por ejemplo Siri, quien responde “provocativamente a los favores sexuales” de los usuarios masculinos, con frases como: “Me sonrojaría si pudiera” (de ahí el título del informe).

“La falta de capacidad de las asistentes de voz para defenderse de insultos hostiles y sexistas puede poner en relieve su impotencia. Esta codificación proyecta una actitud negativa hacia las mujeres y una razón para que el machismo siga predominando”. Afirma el informe

En un intento por ayudar a abordar el problema, la ONU cree que deben utilizarse voces no humanas y que no tengan en cuenta el género. Como ejemplo a esto, los investigadores han señalado la famosa voz robótica de Stephen Hawking. Algo así esperarían de Alexa, el Asistente de Google y Cortana, que usan voces femeninas de forma predeterminada.