¿La Inteligencia Artificial es machista?
Hace algunos días hicimos una prueba con el traductor de Google, en el cual introdujimos la hoja de vida de una mujer exitosa, para que fuera traducida de español a inglés. Nos llevamos una gran sorpresa cuando en la traducción la palabra “ella” había sido sustituida por “He”, haciendo relación a un hombre. ¿Será que el traductor de Google no es capaz de reconocer que se está haciendo mención a una mujer? Decidí buscar información al respecto y me encontré con varias noticias en la que se manifestaban situaciones similares, por ejemplo, en traducciones de idiomas como el euskera, cuando se hablaba de acciones como conducir, por ejemplo, las traducía como si fuera la acción de un hombre, y las de coser eran atribuidas siempre a las mujeres. ¿Cómo puede ser esto posible? Varias son las reflexiones a las que se ha llegado con este tema.
La primera reflexión importante es quién, cómo y bajo qué parámetros se están creando los algoritmos. Hace algunos años la Unesco público un informe sobre el tema del sesgo machista de los algoritmos. El tema central es que estos se crean con información histórica, y nuestra historia siempre ha tenido sesgos machistas, en este sentido estamos llevando a la tecnología, las creencias, paradigmas, y problemáticas que ocurren en el diario vivir. Les doy un ejemplo, una universidad crea un algoritmo para que sea más fácil escoger a aquellas personas que pueden ganarse una beca para estudiar en la universidad. Suben, entonces, la información histórica de las personas que se han ganado becas, y los requisitos para lograr la misma. El problema es que el algoritmo analiza la información, y determina que como en 100% de las becas han sido asignadas a hombres, eso quiere decir que solo ellos pueden ser seleccionados. Aquí encontramos un tema ético en la forma en la que estamos creando las herramientas tecnológicas, ya que nos encontramos con casos de discriminación. Al parecer, la inteligencia artificial no es tan inteligente, solo toma y analiza lo que en ella sea puesto.
Lo segundo, en la búsqueda realizada sobre los sesgos machistas, se encontró que la mayoría de los asistentes digitales tienen nombre de mujeres, “Alexa”, “Siri”, “Cortana”, entre otros. Aunque se puede configurar con voz masculina, viene por defecto en voz femenina. ¿Por qué razón el asistente no se llama “R2”, por poner un ejemplo? Esto muestra que hay un tema de responsabilidad ética de los creadores de tecnología. En este sentido, antes de crear una función o dispositivo tecnológico, es importante analizar los temas éticos alrededor del mismo y lo que puede ocasionar a nivel personal y social.
La Unesco y el BID han dado algunas recomendaciones sobre la materia. 1. Es necesario promover que haya más mujeres desarrolladoras, ya que esto ayudaría a que el desarrollo tecnológico tuviera esta mirada. 2. Es importante tener lineamientos éticos y de responsabilidad para la creación de tecnología a nivel país y global. Adicionalmente, si lo que se utiliza para crear los algoritmos es información histórica, necesitamos que la información que se tenga en cuenta incluya a las mujeres, además de seguir haciendo historia.
Sumo a estas reflexiones una anécdota personal. Estaba en la casa de una amiga en Miami, que tiene a “Alexa”, estando allí le pedí a Alexa que pusiera música, y las canciones que escogió eran muy tristes, algunas depresivas. Le pedí que pusiera “Happy”, la colocó, pero después de un rato, volvió a las canciones tristes. Me pregunté en ese momento si mi amiga, la dueña de la casa, estaba sufriendo algún tipo de depresión, pero también me pregunté si estos dispositivos pueden llevar a una persona a estados de depresión o mantenerlo allí, por el tipo de solicitudes que puede hacer el usuario. Hablando sobre Bienestar Digital y salud mental, es un tema a analizar.