Un informe de la UNESCO sugiri√≥ que el uso predeterminado de los asistentes de voz con sonido femenino en nuestros dispositivos inteligentes para el hogar y tel√©fonos inteligentes perpet√ļa las actitudes sexistas hacia las mujeres.

El informe, titulado "Ruborizarse si pudiera", toma su nombre de la antigua respuesta predeterminada de Siri, conocida como puta por los usuarios, y critica el hecho de que Siri de Apple, Amazon Alexa, Google Assistant y Cortana de Microsoft son "exclusivamente mujeres, o mujeres por defecto, tanto en nombre como en voz".

¬ŅPor qu√© es esto un problema? Seg√ļn el informe, el uso predeterminado de los mensajes de voz con sonido femenino le dice a los usuarios que las mujeres son "√ļtiles, d√≥ciles y ansiosas de ayudar, disponibles con solo tocar un bot√≥n o con un comando de voz" directo como 'hey' o 'OK'.

El informe tambi√©n destaca el hecho de que estos asistentes de voz no tienen "ning√ļn poder de agencia m√°s all√° de lo que el comandante les pregunta" y responden a las solicitudes "independientemente del tono u hostilidad (del usuario) ".

Seg√ļn el informe, esto tiene el efecto de reforzar "el sesgo de g√©nero generalmente aceptado al que las mujeres son sometidas y tolerantes con el mal trato".

Apple HomePod (Crédito de la imagen: LaComparacion)

Apple HomePod (Crédito de la imagen: LaComparacion)

Implicaciones perturbadoras

Esta presentación es particularmente perturbadora cuando estas ayudantes de voz dan "respuestas distorsionadas, aburridas o de disculpa al acoso sexual verbal".

Con al menos el 5% de las interacciones con los asistentes de voz explícitamente sexualmente explícitas, esto tampoco es del todo inusual, y sus respuestas son preocupantes.

Seg√ļn un informe de Quartz en 2017, a la pregunta "¬ŅQui√©n es tu pap√°?", Siri respondi√≥ "T√ļ eres", y cuando Alexa respondi√≥ "Eres sexy", la asistente respondi√≥ "C & # 39; Es bueno de tu parte decir ".

Si bien los asistentes de voz parecen ser cada vez más realistas, no es un gran avance sugerir que estas respuestas evasivas podrían "reforzar los estereotipos de las mujeres esclavizadas y esclavizadas".

Desde entonces, Alexa se ha actualizado para desconectarse del acoso verbal, en lugar de decir "No voy a responder eso" o "No estoy seguro de lo que esperaba".

Crédito de la imagen: Google

Chicas en el frente

¬ŅPor qu√© es importante que los asistentes de voz se vean femeninos por defecto? Esto puede afectar nuestro comportamiento hacia las mujeres y las ni√Īas en la vida real.

Como dice el informe, Safiya Umoja Noble, profesora de sociología de la Universidad del Sur de California, descubrió que "los asistentes virtuales están generando un cambio del discurso orientado hacia el comando a las voces de las mujeres".

Seg√ļn el profesor Noble, los comandos de ladridos de los asistentes de voz, como "buscar x", "llamar x", "cambiar x" o "orden x", funcionan como "herramientas poderosas de socializaci√≥n" y ense√Īan a las personas sobre Especialmente para los ni√Īos, "el papel de las mujeres, las ni√Īas y las personas de g√©nero en la respuesta a la demanda".

Entonces, ¬Ņc√≥mo se permiti√≥ esto? ¬ŅPor qu√© son tan omnipresentes las ayudantes femeninas de voz? Seg√ļn la UNESCO, el problema radica en la falta de mujeres en la sala cuando las empresas de tecnolog√≠a dise√Īan sus asistentes de voz para inteligencia artificial y en todas las industrias STEM (ciencia, tecnolog√≠a, ingenier√≠a y tecnolog√≠a). matem√°ticas).

Con solo el 7% de las patentes de TIC generadas por mujeres en los países del G20, estas preguntas proporcionan "una ilustración poderosa de los prejuicios sexistas codificados en productos tecnológicos, ubicuos en el sector de la tecnología y aparentes en la capacitación en habilidades digitales".

Además de recomendar reducir la brecha digital entre hombres y mujeres al "reclutar, retener y promover a las mujeres en el sector de la tecnología", el informe también recomienda que más asistentes de voz tengan una voz masculina predeterminada. , acabando con la "práctica de los asistentes digitales". mujer por defecto ".

Seg√ļn CNet, Amazon y Apple no han respondido a sus solicitudes de comentarios y Microsoft se ha negado a proporcionar comentarios despu√©s de la cobertura del informe.

Por otro lado, Google afirma haber desarrollado "una variedad de 10 ofertas de voz en los EE. UU. Y que cuando los clientes instalan un dispositivo de Google Home, tienen un 50% de probabilidad de obtener una voz tradicionalmente femenina o una voz tradicional ". voz masculina ".

A través de CNet

Share This
A %d blogueros les gusta esto: