
Gracias a Twitter, que a pesar de todo el ruido sigue siendo un foro para conversaciones interesantes y descubrir enlaces estupendos, he llegado a este texto publicado en Venturebeat por la Directora del Ada Lovelace Institute: The term ‘ethical AI’ is finally starting to mean something, en el que se reflexiona con bastante detalle sobre los retos a los que se está enfrentando la comunidad que está implicada en el desarrollo y el uso de la Inteligencia Artificial.
Un texto extenso que toca muchos temas, y que, creo que como no podría ser de otra forma, hay momentos en los que confunde la ética con las convenciones sociales, y mezcla conceptos éticos con malos desarrollos técnicos o un mal entendimiento de lo que se tiene entre manos.
Pero esto es algo que puede llegar a ser comprensible dado lo difuso que puede llegar a ser el término «ética» y las diferentes interpretaciones que se le pueden dar.
Lo que no veo comprensible es que informe inadecuadamente contando verdades a medias tratando de justificar sus argumentos:
Reconocimiento facial ilegal
Dice que en UK se ha considerado ilegal el uso por la policía de reconocimiento facial:
In the UK alone, the Court of Appeal found the use by police of facial recognition systems unlawful
https://venturebeat.com/2020/08/23/the-term-ethical-ai-is-finally-starting-to-mean-something/
Pero eso no es lo que dice la noticia que se enlaza. Lo que la noticia dice es que el tribunal declaró ilegal el uso que en un caso concreto había hecho un departamento de policía determinado:
The use of automatic facial recognition (AFR) technology by South Wales Police is unlawful
https://www.bbc.com/news/uk-wales-53734716
Es decir, no una consideración genérica, sino, como suelen hacer los tribunales, en respuesta a una cuestión específica. Pero va más allá: el tribunal no cuestiona el uso del reconocimiento facial en general, de hecho lo aprueba (las negritas son mías):
But the court also found its use was proportionate interference with human rights as the benefits outweighed the impact on Mr Bridges
https://www.bbc.com/news/uk-wales-53734716
Los fundamentos por los que en este caso considera ilegal el uso del reconocimiento facial son tres (de nuevo las negritas son mías):
It said there was no clear guidance on where AFR Locate could be used and who could be put on a watchlist, a data protection impact assessment was deficient and the force did not take reasonable steps to find out if the software had a racial or gender bias.
https://www.bbc.com/news/uk-wales-53734716
Cuestiones que podemos considerar procedimentales o administrativas, pero no por ello menos relevantes. Pide:
- Que se defina unas normas de uso y unos criterios para poner a alguien bajo vigilancia
- Que se analice el impacto en protección de datos correctamente
- Que se hagan las averiguaciones para asegurar que el sistema de reconocimiento facial usado no tenía sesgo racial o de género
Algoritmos racistas
La autora también, como ejemplo, se hace eco de otro caso del Reino Unido:
a government department ceased its use of AI for visa application sorting
https://venturebeat.com/2020/08/23/the-term-ethical-ai-is-finally-starting-to-mean-something/
Pero no nos cuenta por qué. La respuesta también está en la propia noticia que enlaza y, en mi opinión, no es un problema de uso ético o no ético de la inteligencia artificial, sino de cómo se definen los criterios para desarrollar los sistemas que llamamos inteligencia artificial:
This streaming tool took decades of institutionally racist practices, such as targeting particular nationalities for immigration raids, and turned them into software
https://www.theguardian.com/uk-news/2020/aug/04/home-office-to-scrap-racist-algorithm-for-uk-visa-applicants
Simplemente se replicaron los criterios que se venían usando, lo que no creo que deba ser un problema que debamos atribuir a la inteligencia artificial.
El problema real
La mayor parte de los ejemplos que cita son casos de algoritmos diseñados replicando los procedimientos que ya se venían aplicando por medios menos avanzados, o haciendo uso de fuentes de datos creados por personas y que, por tanto, reflejan la forma de decidir de esas personas.
Mientras seamos nosotros quienes alimentemos al sistema bien dándole de comer datos, bien creando los algoritmos, la ética que nos debe preocupar es la nuestra. Habrá veces en las no nos gustará la imagen que nos devuelva el espejo, y contra ello tendremos que luchar.
En el momento en que los sistemas se vayan desligando de esos condicionantes, a lo que nos tendremos que enfrentar es a un resultado que no encaje con nuestras convenciones sociales del momento. Pero esto no es una cuestión ética, es otra cosa.