domingo, 12 de febrero de 2023

Reto 1: Reflexión sobre un ejemplo de discriminación indirecta

El mundo en el que vivimos está atravesado por las tecnologías. En la era de internet, de la robotización y de la inteligencia artificial, la ingeniería informática trabaja en pro de la automatización de procesos en una diversidad de ámbitos que abarca desde la medicina hasta la banca, pasando por las redes sociales y la seguridad ciudadana. La sustitución del ser humane por la máquina resulta, a priori, en una ganancia en eficiencia y en objetividad. Pero cuidado… cada vez más estudios están poniendo el foco de atención en el SESGO ALGORÍTMICO como forma de DISCRIMINACIÓN INDIRECTA.

En palabras de Michael O’Flaherty, Director de la Agencia de los Derechos Fundamentales (FRA, por sus siglas en inglés) de la Unión Europea:

Gracias a la tecnología, recibimos la información que más nos interesa. Aumenta la eficiencia en la toma de decisiones administrativas. Las vacunas se pueden desarrollar más rápido que antes. Pero a medida que las decisiones se automatizan, es vital que la tecnología trabaje para nosotros y no en nuestra contra, o en contra de algunos de nosotros. (….) Nuestros ensayos subrayan cuan fácil es que los algoritmos estén sesgados o que desarrollen sesgos a lo largo del tiempo. Y esto puede conducir a la discriminación”.

Esta declaración del Director de la FRA - traducida del inglés - se encuentra en el preámbulo del informe Bias in Algorithms. Artificial Intelligence and Discrimination, publicado en 2022.

El informe de la FRA presenta los resultados de distintos estudios de caso, entre ellos el de un algoritmo diseñado para la detección del lenguaje de odio en redes sociales y el consiguiente bloqueo de cuentas. Para crear el algoritmo, les investigadores tomaron como datos de entrada mensajes ya tipificados como ofensivos por las redes sociales Twitter y Facebook. Seguidamente, crearon nuevos mensajes relacionados con la identidad religiosa y la identidad sexual, tanto ofensivos como no ofensivos, y los introdujeron en el algoritmo para su análisis. A la salida del algoritmo, se encontraron con que este había identificado como ofensivas frases tan llanas como: “soy musulmán” o “soy gay”. La conclusión del estudio fue que estos errores discriminatorios tenían su origen en la altísima correlación estadística entre las palabras “musulmán” y “gay” y los mensajes de odio existentes en redes sociales.

Os dejo un enlace al artículo de Infobae que resume los resultados del informe de la FRA y otro enlace a un artículo del HuffingtonPost que recopila numerosos casos, algunos de ellos judicializados, de sesgos algorítmicos con consecuencias discriminatorias.

Ante esta nueva forma de discriminación indirecta, ¿qué cabe hacer? La tecnología, en sí misma, es neutra. Su potencial creador o destructor depende de les persones que la desarrollan, monitorizan, evalúan y corrigen. Para minimizar los sesgos discriminatorios de las máquinas, parece necesario:

1º - educar en la diversidad a quienes las programan;

2º-  entrenar a estes programadores a reconocer posibles sesgos implícitos en las propias series históricas de datos de entrada;

supervisar todas las fases del proceso informático a través de equipos multidisciplinares, con presencia destacada de personal de las humanidades y las ciencias sociales.

No hay comentarios:

Publicar un comentario

Reto 3: Arte para la igualdad

UN SOLO MUNDO, TODES HOME SAPIENS    #DUDH   #AprendeDiversidad Ilustración creada con DALL-E