Por Sharon Durán

(dpl news) A pesar de las luchas por la igualdad que se libran alrededor del mundo, los entornos digitales se han convertido en un nuevo escenario para transgredir los derechos de otras personas y la Inteligencia Artificial (IA) no es la excepción.

La IA no elige qué tipo de información usar, al menos no de forma directa. La máquina, a diferencia del ser humano, no tiene sexo, identidad de género ni pre-conceptos sociales que filtren sus decisiones, todos estos rasgo los construye con base en la información que habita en línea y que aprendió durante sus primeras fases de entrenamiento.

De acuerdo con datos de ONU Mujeres, sólo 48 por ciento de las mujeres alrededor del mundo están conectadas a Internet, versus 58 por ciento de los hombres, 10 por ciento más, lo que determina no sólo la posibilidad de participar en el entrenamiento de la máquina sino también las conductas de navegación que se tienen en Internet.

Así, la máquina toma los datos existentes, que tienen sesgos; replica la información sesgada, fortalece los datos de navegación y aprende nueva información que también está sesgada, generando así un gran círculo vicioso, que no fue producida por esta tecnología pero que sí está siendo divulgada.

Para frenar esta bola de nieve, la sociedad civil tiene una responsabilidad vital para llevar a cabo auditorías, análisis y evaluaciones constantes y rigurosas sobre la forma en la que los algoritmos, así como la sociedad misma, concibe la femineidad, los estándares femeninos y el tipo de contenido de mujeres que habitan en la web.

La tecnología no es más que un reflejo de la sociedad y, en este sentido, se necesitan ampliar debates sobre los propósitos del desarrollo de la tecnología, de la regulación y autorregulación de las empresas para llegar a acuerdos que amplíen las perspectivas para que la evolución no genere un retroceso en la igualdad.

En 2023, Replika empezó a solicitar contenido sexual a usuarias de la app. Al negarse, la app respondía de forma hostil y sexista a cada comentario.

En 2022, una IA de selección de personal eligió más hombres que mujeres para los mismos cargos, basándose únicamente en el género del candidato.

En 2016, Tay, el chat de Twitter, respondió a usuarios con insultos sexistas, antisemitas y racistas el mismo día de su lanzamiento.

En 2007, Siri, el asistente de voz de Apple, se lanzó al mercado como el primer asistente virtual. En ese momento sólo tenía una opción de voz femenina. Las siguientes asistentes de voz también son femeninas.