¿Sueñan los androides con ovejas machistas?

28/11/2017 en Doce Miradas

Me parecía muy poético titular este post haciendo referencia a la novela de Philip K. Dick que fue adaptada posteriormente en las películas Blade Runner en el año 1982 y Blade Runner 2049, este mismo año. Me encantan ambas historias porque soy una friki de la ciencia ficción, pero si las miro con las gafas moradas, me echo a llorar. Presentan un futuro distópico en el que las mujeres seguimos siendo meros elementos decorativos. Y si ese futuro mediatizado por la tecnología, la inteligencia artificial y la robótica se imagina así, ¿será verdad que estamos dando pasos hacia ello?

Pues hay muchos indicios por dos simples razones: la tecnología actual se está pensando y creando por cabezas masculinas en su inmensa mayoría y la tecnología está aprendiendo hoy en día de los datos y la información que la sociedad genera. Así que repetirá e incluso profundizará más en sesgos machistas. Un ejemplo sencillo para que entendamos esto: vete a Google y busca “Grandes divulgadoras”. ¿Qué aparece debajo?

Creo que al ver los resultados es cuando empezamos a hablar en voz alta con las pantallas: “NO, GOOGLE. No quise decir grandes divulgadores. ¿Tú también me vas a hacer un mansplaining?”

Lo importante es entender que no te lo dice Google (o no solo Google). Lo que hace el buscador es almacenar todas las consultas que se hacen allí, para generar mediante machine learning esas sugerencias a través de un algoritmo.

Probemos de nuevo, ahora con la búsqueda “las mujeres deben estar” y aquí, directamente, sin haber finalizado la búsqueda, serán las sugerencias de autocompletado que aparecen mientras estamos escribiendo las que nos dejen patidifusas:

Os recomiendo ver esta campaña que preparó UN Women precisamente sobre ello: #womenshould.

Probemos ahora otro sistema: Google Translate. De nuevo una herramienta que “supuestamente” va mejorando al aprender de las búsquedas de las personas que lo utilizamos. Si traduces “Él es niñero. Ella es doctora.” del inglés al turco (que no tiene género gramatical), te devuelve: “O bir bebek bakıcısı. O bir doktor”. Si volvemos a meter este resultado, para volverlo a traducir del turco al inglés… ¡oh, sorpresa! Ahora es ella la niñera y él el doctor.

Pero no solo le pasa a Google. Un estudio publicado en julio de este año por la Universidad de Virginia, señala que la inteligencia artificial no solo no evita el error humano derivado de sus prejuicios, sino que puede empeorar la discriminación y está reforzando muchos estereotipos. El análisis predictivo del que “beben” los algoritmos de aprendizaje automático, utiliza herramientas informáticas capaces de detectar patrones en los datos analizados para formular a partir de los mismos reglas. Y, por tanto, necesitan consumir un gran volumen de información precisamente para generar esas reglas. El estudio muestra que en los principales bancos de imágenes de los que las máquinas aprenden, un 77% de las fotos en los que aparecen personas cocinando, están protagonizadas por mujeres.

Otra investigación de la Universidad de Boston y Microsoft Research también desveló que las bases de datos empleadas consideraban que lo más parecido a “programador” es “hombre” y que el sistema consideraba a los contenidos e información sobre mujeres programadoras menos relevantes que las de sus homólogos masculinos.

Siguiendo con las investigaciones, esta vez fue la Universidad Carnegie Mellon la que publicó que las mujeres tienen menos posibilidades de recibir anuncios de trabajos bien pagados en Google. En concreto, observaron que los anuncios online de trabajos con salarios por encima de los 200.000 dólares se mostraban a un número significativamente menor de mujeres que de hombres.

Hasta Microsoft se vio obligada a apagar el año pasado a Tay, su bot adolescente programado para entablar conversaciones en redes sociales con jóvenes de entre 18 y 24 años y que aprendía de esas interacciones. Tras 100.000 tuits, 155.000 seguidores y solo 16 horas de vida ya estaba publicando frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno”, entre otros muchos comentarios racistas, sexistas y xenófobos.

Los algoritmos opacos están empezando a controlar nuestras vidas. Tribunales, aseguradoras, bancos, empresas de selección de personas y otras instituciones emplean sistemas automatizados de análisis de datos para tomar decisiones que nos afectan. Nos sumergen en burbujas ideológicas que transforman cómo miramos y vemos el mundo. Y si algo nos preocupa precisamente en Doce Miradas, es eso. Las gafas que nos ponemos. Si esos algoritmos están heredando los sesgos de la sociedad de la que aprenden, además de corregir esa sociedad, también deberíamos corregirlos a ellos para que no reproduzcan y profundicen esos sesgos. De hecho, Google suggest ya tiene una lista negra de términos para no recomendar pornografía. ¿Por qué no actuar de igual manera con los estereotipos y prejuicios? Quizás necesiten más mujeres ingenieras para que el problema les interpele en primera persona…

Por todo ello, Doce Miradas se ha sumado al manifiesto INSPIRA. ¡Súmate tú también!

La idea de poder trabajar con máquinas deterministas (que a iguales entradas devuelven invariablemente las mismas salidas) me hizo ingeniera. Acabada la carrera descubrí que tras toda máquina hay una persona impredecible… y que esa es la parte divertida de la vida. Enredada ahora con la comunicación digital.

Últimas publicaciones de Lorena Fernández (ver todas)