Inteligencia Artificial: 6 ejemplos de cómo se discrimina a las mujeres
Georgina Sticco se pregunta en esta columna: ¿Hasta qué punto la Inteligencia Artificial nos afecta y condiciona nuestros modos de ver el mundo?
26 de julio de 2023
IA: moza sirviendo en un bar. - Créditos: Getty
Hasta hace unos meses, pensar en el impacto de la Inteligencia Artificial en nuestras vidas parecía algo muy ajeno. Quizás muchas personas no se hicieron la pregunta de cuánto su vida se vería afectada por esta tecnología hasta que no se cruzaron con ChatGPT. Entonces surgieron las fotos trucadas y comenzó a hacerse público el debate sobre la ética detrás de esta tecnología.
Lo cierto es que nos viene impactando desde hace mucho tiempo, pero no lo notamos porque desconocemos qué algoritmos, con los que interactuamos, la utilizan. Por eso, les hago una invitación: tomen un segundo, antes de seguir leyendo, para anotar todas las aplicaciones que se imaginan que están utilizando inteligencia artificial.
¿Ya lo escribieron? Ahora, veamos algunos ejemplos: buscadores de internet, traductores online, asistentes de voz (como Alexia, Siri, Cortana), aplicaciones con reconocimiento facial o las publicidades que vemos en las redes sociales. Todas usan IA, pero además, y esto es sobre lo que me interesaba reflexionar, de alguna manera toman decisiones sesgadas, y por lo tanto nos muestran información en función de lo que se supone que nosotros somos.
Sesgadas en el sentido de que tiene una visión del mundo y la siguen repitiendo, como si fuera la única forma. Claro que el problema no es del código en sí mismo, sino de las personas que lo crearon o que le brindaron para aprender, porque algunos son algoritmos que aprenden, un conjunto de datos sesgados.
Primer ejemplo: hace unos años Amazon realizó una aplicación para elegir entre los miles de currículums que recibía, cuáles podían ser los mejores para su empresa. Se dieron cuenta que sistemáticamente la app descartaba los currículums de mujeres ¿por qué? Porque el algoritmo había aprendido que los varones eran más “apropiados” para todos los puestos, dado que el organigrama de la empresa estaba compuesto mayoritariamente por varones. Si una persona no se hubiera dado cuenta de este error, todos los esfuerzos que hicieran para sumar mujeres a su organización hubieran sido en vano. El proyecto fue cancelado.
Vamos con otro ejemplo, el de las asistentes de voz. ¿Se preguntaron por qué al inicio solo eran voces de mujeres? Las empresas decían que se debía a que las personas no toleraban la voz de un varón diciéndoles qué hacer. Y acá tenemos una decisión sexista: un grupo de personas considera que las mujeres son mejores para atender a los demás y, por lo tanto, ponen una voz con timbre femenino al servicio de millones de personas. La UNESCO realizó múltiples quejas, porque sostenía que se replicaba y reproducía un estereotipo de género que se está intentando deconstruir: que las mujeres están naturalmente a servicio de otras personas. Por suerte, ahora está cambiando.
En el caso de los buscadores de internet, en general cuando buscamos, en las respuestas predominan los hombres o se asume una búsqueda que da como resultado contenidos sexistas. Por ejemplo, si escribís en el buscador “las deport”, sin terminar la frase, el buscador te ofrece “las deportistas más lindas, más cómodas, más caras, más guapas”, si por el contrario, escribís “los deport” te sugiere “los deportistas más ricos, mejores pagos”. Les sugiero que lo prueben con varias opciones!
Siguiendo con el tema de la voz, muchos dispositivos con reconocimiento de voz fueron probados con tonos más comúnmente asociados a los varones, lo que generaba que, si una mujer intentaba configurarlos, su voz no era reconocida.
Otro ejemplo: ¿Sabías que los avisos de trabajo que se te presentan en las redes sociales también usan IA y también están sesgados? Si sos una mujer, en edad reproductiva te mostrará menos oportunidades para puestos de líderes y gerentes, que si sos un varón de la misma edad, porque asume que querés tener hijos/as y que tu prioridad es cuidarles. Acá la pregunta fundamental es: ¿por qué toman la decisión por las mujeres y no dejan que sean ellas quiénes decidan si quieren o no presentarse? ATENCIÓN, el sesgo también funciona si el perfil solo cuenta con una foto, dado que el algoritmo está preparado para “leer” tu identidad de género y tu edad en función de tu foto.
Uno de los últimos usos que más me impactó es el de los sitios de citas. El Washington Post publicó hace poco una historia que anunciaba: "Bienvenidos a la era de las citas automatizadas". Hay una nueva aplicación, Rizz, que ayuda a las personas a generar citas, escribiendo y organizando encuentros a posibles matches. Ojo, la persona que recibe el pedido nunca sabe que está interactuando con IA. Se supone que el objetivo es “optimizar” las citas. Una amiga, hace unas semanas, contactada de esta manera tuvo una cita con un Bot. Ni siquiera la persona se presentó.
Si seguimos indagando nos daremos cuenta que estamos rodeados de aplicaciones que usan IA, y que de alguna manera han afectado nuestras decisiones, y no lo sabíamos. Es por eso que son claves las discusiones que se sostienen a nivel internacional sobre cuál es la ética detrás del desarrollo de IA. Y esta discusión debe abordar, sobre todo, el impacto discriminatorio que pueden tener las aplicaciones si no son desarrolladas con ciertos criterios. Hoy les conté sobre sesgos de género, pero también existen por etnia o generaciones u orientación sexo afectiva.
Lo importante no es negarnos a su existencia: ya llegó. Sino utilizarla desde una mirada crítica, aprendiendo de qué se trata y reconociendo los sesgos para encontrar la manera de abrirnos a un mundo de posibilidades, que cada vez es más reducido.
Fuentes consultadas:
https://www.liberties.eu/en/stories/impact-of-artificial-intelligence-in-everyday-life/44222
https://news.northeastern.edu/2022/10/25/facebook-algorithm-discrimination/
Nota gentileza para OHLALÁ!