Saltar al contenido

Inteligencia artificial en salud

Inteligencia artificial

Publica The New York Times un artículo con un título claramente enfocado al clickbait: «Warnings of a Dark Side to A.I. in Health Care» y, claro, no me quedó otra que picar a ver cuál era ese lado oscuro.

Manipulación de las pruebas de diagnóstico por imagen: hoy día todo está digitalizado, un malware en los sistemas que controlan los dispositivos de diagnóstico por imagen (Rayos x, resonancias magnéticas, …) puede incorporar datos que lleven a un diagnóstico manipulado:

“adversarial attacks” — manipulations that can change the behavior of A.I. systems using tiny pieces of digital data. By changing a few pixels on a lung scan, for instance, someone could fool an A.I. system into seeing an illness that is not really there, or not seeing one that is

The New York Times: Warnings of a Dark Side to A.I. in Health Care

Pone el artículo varios ejemplos todos centrados prácticamente en lo mismo: la manipulación de información para que se produzcan errores en la identificación de personas o en el diagnóstico.

Y acaba diciendo que también se usará la IA para «maximizar» la facturación de médicos y hospitales a las aseguradoras mediante la identificación de los códigos de facturación con precios más altos.

Este fue precisamente mi primer trabajo allá por 1994 cuando entré a trabajar en una aseguradora de salud: identificar este tipo de comportamientos en ciertos proveedores que sistemáticamente identificaban los códigos asociados a precios más altos. Vamos, que la IA en este campo no nos va a traer nada nuevo más allá de nuevas herramientas para hacer más eficientemente lo mismo que se ha hecho toda la vida.

Pero claro, luego llegamos al siguiente nivel: cuando esas herramientas también las empiece a usar quien está encargado de evitarlo, esos proveedores «listillos» pueden usar esos sistemas de manipulación para remitirles información retocada:

As regulators, insurance providers and billing companies begin using A.I. in their software systems, businesses can learn to game the underlying algorithms.

¿Por qué será que parece que los malos siempre van por delante?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.