Y no me refiero a aspectos de calidad “tradicionales” que se puedan arreglar con mayor número de tests o técnicas de verificación sinó a qué los algoritmos sean imparciales y no incurran en injusticias o discriminación social. Por ejemplo, hay varios casos de algoritmos que se convierten en racistas (dos ejemplos: Amazon evitando repartir en barrios de mayoría afroamericana o el chat bot de Microsoft que tuvieron que retirar immediatamente por comentarios racistas). Aunque, en la mayoría de casos, la parcialidad no era una decisión de diseño, sinó un producto de los datos (parciales, incorrectos,…) y el aprendizaje del propio algoritmo, el problema es grave. Automatizar decisiones que afectan personas individuales requiere unos algoritmos transparentes que se puedan evaluar de forma objetiva.
Además, el problema es técnicamente complejo. En muchos casos, no basta con liberar el código fuente de esos algoritmos sinó también de dotar al algoritmo de capacidades autoexplicativas que le permitan justificar sus decisiones ya que muchos de los algoritmos más usados hoy en día se basan en el uso de técnicas de big data y machine learning donde justamente es muy difícil saber el porqué y el cómo el algoritmo ha llegado a esa conclusión.
Para concienciar de la gravedad de la situación, la ACM (Association for Computing Machinery) ha propuesto siete principios para la transparencia y responsabilidad de los algoritmos. Creo que vale mucho la pena leerlos y reflexionar sobre cómo cada uno de nosotros puede intentar aplicarlos en su trabajo diario.
Conciencia
Acceso y correccción
Responsabilidad
Explicación
Procedencia de los datos
Auditoría
Validación y testeo
Y ya como reflexión final (adaptado de un tweet de mhoye) me gustaría acabar con esta frase:
Si entrenas tus algoritmos con datos del mundo actual, tendrás más aún del mundo que tenemos, no del mundo que queremos
Últimos comentarios