Reflexionamos sobre la justicia algorítmica

El 10 y 12 de noviembre de 2021 co-organizamos con el Espai Societat Oberta el taller Interseccionalidad algorítmica, ejercicios para pensar dedicado a organizaciones de la sociedad civil. Algunas de las organizaciones presentes fueron LaFede, Goteo, Platoniq, Aministía internacional, Fundació Esplai, Algorights, Associació Atzavara-arrels, Right International Spain y Digital Future Society. 

El objetivo era aprender a utilizar herramientas de pensamiento que permitieran dar una visión general sobre los sesgos en el diseño de algoritmos, comprendiendo los riesgos y oportunidades de la IA para individuos y colectivos. Para ello, diseñamos actividades donde los diferentes grupos trabajaran con una tecnología que utilice AI para re-diseñar su narrativa a través de técnicas del diseño de ficción que tenga en cuenta los grupos afectados.

Comenzamos con una introducción de los conceptos básicos de la inteligencia artificial, una explicación sobre el ciclo de vida de los algoritmos (ver video aquí), los usos de la IA a diversos casos. A su vez, discutimos sobre la interseccionalidad algorítmica y socio-tecnologías, los conflictos y dilemas que trae aparejado.

Luego en equipos y para comenzar a entender los sesgos en el diseño de algoritmos analizamos narrativas de diversas tecnologías (algoritmos detrás de las asignaciones de ayudas sociales, evaluación automática de candidatos para puestos laborales, reconocimiento facial de criminales, etc.). A veces, hacerlo desde nuestro lugar nos dificulta entender cuales pueden ser las consecuencias para otros grupos sociales o comunidades. Por ello, realizamos un role play con diferentes personas (perfiles de personas creados para ilustrar la diversidad de situaciones posibles) para poder “ponerse en los zapatos de otros”. De esta manera pudieron posicionar una misma tecnología en la matrix de opresión y privilegio. 

A continuación realizamos un análisis de narrativas de diseño con una mirada interseccional (Analyzing Design Narratives) contestando a las preguntas:

– Quién participa en el proceso de diseño?

– Quién se beneficia de este diseño?

– Quién es perjudicado por este diseño?

Ejemplo de uno de los ejercicios de análisis de narrativas

Y con estas 3 preguntas en mente y en base a las personas y el conocimiento de los propios participantes, repensamos una nueva narrativa para cada caso elegido de uso de esa tecnología que beneficien o estén pensadas desde su perspectiva. Por ello, el resultado último fue generar historias de usuario deseables (Desirable User Story) por tecnología y por persona.

Algunas de las narrativas futuras deseables creadas durante el taller

Al finalizar, los participantes nos han hecho llegar algunos comentarios sobre qué se han llevado del taller y aquí compartimos algunas: 

(Del taller me he llevado)una metodología para explicar claramente a otras personas en mi organización y en mi entorno cómo afectan loa algoritmos a los Derechos.

Las implicaciones individuales y colectivas que tienen las decisiones de automatización de nuestras vidas. Hacerme preguntas acerca de todo el proceso de diseño, lógica, beneficiarios…

He entendido mucho más de qué hablamos cuando hablamos de algoritmos. Me ha parecido muy interesante como activista trabajar sobre los sesgos de opresión/privilegio, porque son la realidad sobre la que trabajamos.

¡Muchas gracias Societat Oberta y especialmente a Thai Jungpanich por haber confiado en nosotros y a los participantes por haber brindado su tiempo y esfuerzo a conocer un poco más sobre estas temáticas!