Piense en tomar una simple radiografía de su rodilla y descubrir que la IA puede deducir si bebe cerveza o come frijoles. Suena absurdo, pero eso es exactamente lo que han demostrado los investigadores de un centro médico estadounidense. Su estudio, publicado en Naturaleza: informes científicos (lo enlazo aqui), revela cómo la IA puede hacer predicciones aparentemente imposibles mediante el análisis de rayos X. No es magia ni una maravilla tecnológica, y no es nada para celebrar. De hecho, si lo examinamos más de cerca, se trata de un problema grave que pone en duda la fiabilidad de los algoritmos en medicina.
Un centro médico aterrador, pero no para lo que piensas.
Irónicamente: el Centro Médico Dartmouth-Hitchcock, con un apellido que recuerda inmediatamente al maestro de las emociones cinematográficas (no, no hay relación: el centro fue fundado en 1893 por Hiram Hitchcock en memoria de su esposa Mary), se enfrenta a un desafío digno de un thriller tecnológico. Las radiografías, herramientas diagnosticas fundamentos de la medicina moderna, están revelando aspectos inquietantes cuando los analiza la inteligencia artificial. El Dr. Peter L. Schilling, cirujano ortopédico del DHMC, dirigió un estudio increíble.
uso más de 25.000 radiografías de la rodilla de la base de datos de la Iniciativa de Osteoartritis, los investigadores entrenaron redes neuronales para hacer predicciones que parecen no tener sentido lógico. Sin embargo. La presencia de variables ocultas y correlaciones espurias en los datos permitió a la IA para lograr una precisión del 73% en la predicción del consumo de cerveza y del 63% en la identificación de quienes evitan los frijoles refritos. Números que hacen pensar en la verdadera naturaleza del aprendizaje automático.
Las radiografías revelan más de lo esperado
la capacidad de redes neuronales convolucionales (CNN) para identificar patrones no obvios en imágenes médicas ha demostrado ser un arma de doble filo. No sólo pueden deducir información aparentemente imposible como las preferencias alimentarias, pero también pueden determinar la raza, la edad y el sexo de los pacientes con una precisión desconcertante.
Brandon G. Hill, científico de aprendizaje automático en DHMC, destaca cómo este fenómeno va más allá de simples sesgos basados en indicadores de raza o género. Los algoritmos son capaces incluso determinar el año en el que los médicos tomaron una radiografía, aprovechando diferencias sutiles en los protocolos de imágenes y las características de las máquinas. Estas habilidades no son el resultado de un conocimiento profundo de la anatomía humana, sino de lo que los expertos llaman “aprendizaje abreviado”. En pocas palabras, la IA encuentra atajos en los datos que le permiten hacer predicciones precisas. sin comprender realmente la relación causal subyacente.
Un futuro a repensar para las radiografías digitales
La cuestión plantea serias preocupaciones sobre la validez de los diagnósticos basados en la IA. Si un algoritmo puede “ver” patrones que conducen a conclusiones no relacionadas, ¿cómo podemos confiar en él cuando hace predicciones médicas verdaderamente importantes? Los autores del estudio destacan la importancia de un enfoque interdisciplinario para abordar estos desafíos. La colaboración entre científicos de datos, médicos y especialistas en ética es fundamental para desarrollar sistemas de inteligencia artificial confiables que cumplan sus promesas sin comprometer la precisión del diagnóstico.
Como dice Hill, es crucial superar nuestros prejuicios sobre cómo “ve” la IA. Esto no es una inteligencia. que piensa como nosotros. Es casi como lidiar con una inteligencia extraterrestre que encuentra soluciones de maneras completamente diferentes al pensamiento humano. Una perspectiva que nos recuerda lo importante que es mantener un enfoque crítico en la implementación de estas tecnologías en medicina.