Ícono del sitio Educa

Cuando la IA piensa diferente: la promesa y la paradoja en la medicina

Autor: John Nosta, Ph.D.

 

Nota del traductor: El título original del artículo es When AI Thinks Differently: The Promise and Paradox in Medicine (entregado originalmente en inglés). La presente traducción académica fue realizada en septiembre de 2025 con autorización del autor. 

  1. Repensando nuestro mundo

La inteligencia artificial (IA) nos ha llevado a reconsiderar lo que significa saber. No memoriza como nosotros. No conecta el significado con recuerdos de infancia, emociones o experiencias vividas. Procesa el mundo a través de vastas estructuras computacionales, miles de millones de parámetros que se ajustan en respuesta a patrones ocultos en el lenguaje y los datos (Bengio, Courville & Vincent, 2013).

Para los humanos, una pregunta tan simple como “¿qué es una manzana?” evoca la imagen de una fruta roja, el sabor del otoño, el mito de Eva o incluso la historia de Newton y la gravedad. Para una máquina, la misma pregunta se expande a miles de dimensiones imposibles de imaginar en términos humanos. Una manzana deja de ser una fruta para convertirse en un punto en un espacio de alta dimensionalidad (Marcus & Davis, 2019).

Esta diferencia no es trivial. Nos indica que las máquinas no piensan como nosotros, ni remotamente. Están trazando un terreno cognitivo completamente distinto. Confundir esa diferencia con inferioridad es un error, pero interpretarla como equivalencia también lo es. La IA piensa de otra manera, y es en esa diferencia donde residen tanto su promesa como su paradoja (Floridi & Chiriatti, 2020).

La medicina ofrece una de las miradas más claras sobre esta transformación. La disciplina siempre ha estado marcada por herramientas, desde el estetoscopio hasta el microscopio. La IA es la herramienta más reciente, pero a diferencia de los instrumentos del pasado, desafía nuestras nociones sobre cómo funciona el conocimiento mismo.

  1. La manzana en 12,288 dimensiones

Para comprender cómo percibe la IA, la manzana es un punto de partida ideal. Un modelo de lenguaje no la concibe como una fruta roja para comer o dibujar, sino como un conjunto de patrones presentes en miles de ejemplos. En su espacio interno, “manzana” se representa en más de doce mil dimensiones, cada una describiendo rasgos imperceptibles para nosotros (Bengio et al., 2013).

El pensamiento humano es compacto: plegamos asociaciones múltiples en un símbolo simple. La palabra “manzana” porta capas de resonancia sensorial y cultural. El pensamiento de máquina es expansivo: despliega significados en vastas estructuras matemáticas, donde la proximidad se mide por probabilidad y no por historia o sentido.

Así, la diferencia no radica solo en velocidad o precisión, sino en un orden distinto de cognición. En medicina, esto abre oportunidades extraordinarias, como detectar patrones de enfermedad antes de que se hagan evidentes a los ojos humanos. Pero también introduce riesgos: la máquina puede identificar señales imposibles de verificar para el clínico, dejándonos sin certeza sobre cómo actuar (Topol, 2019).

III. Inteligencia iterativa

Si la manzana ilustra cómo la IA percibe de forma distinta, la práctica de la iteración muestra cómo redefine el aprendizaje humano. Durante siglos, el conocimiento se transmitió en textos fijos: Gutenberg nos dio páginas de autoridad al liberar la palabra escrita, y Google nos dio mapas de búsqueda al liberar hechos. Ambos hitos fueron monumentales, pero estáticos.

La IA generativa rompe con ese molde: permite que el conocimiento se despliegue como un diálogo, donde cada respuesta invita a una nueva pregunta y cada interacción refina la comprensión. Esto es lo que se denomina inteligencia iterativa (Nosta, 2023).

En medicina, esta cualidad es esencial: el diagnóstico y el tratamiento rara vez siguen un camino lineal. El clínico prueba hipótesis, las descarta y ajusta el análisis conforme surgen nuevos datos. Un modelo de lenguaje replica este proceso, ofreciendo una plataforma de pensamiento dinámico tanto para estudiantes como para pacientes.

  1. Centricidad del aprendiz

Este cambio implica un giro radical: de un modelo centrado en la información a uno centrado en el aprendiz. Tradicionalmente, el médico era el guardián del saber y el paciente acudía a recibir respuestas. Hoy, con pacientes que llegan con perspectivas mediadas por IA, el papel del clínico se transforma en facilitador del aprendizaje, corrigiendo malentendidos y construyendo comprensión compartida (Shneiderman, 2020).

Esto también se aplica al médico: ya no depende solo de textos finitos, sino que puede usar la IA para poner a prueba hipótesis y explorar conexiones novedosas. La educación se convierte en un proceso perpetuo y adaptativo.

  1. El doctor sí lo entenderá ahora

Una de las promesas más subestimadas de la IA en medicina es su capacidad para ayudar a que los pacientes se sientan comprendidos. Gran parte de la atención clínica depende de la traducción: los pacientes tienen dificultades para describir su dolor o miedo, y los médicos para interpretarlos. La IA puede servir de intermediaria, reconociendo patrones en el lenguaje que aclaran significados y descubren matices (Topol, 2019). El resultado no es que la máquina empatice, sino que ayude al médico a empatizar mejor. Un sistema sin emociones puede, paradójicamente, expandir el alcance de la empatía.

  1. Aumentando lo familiar

Cuando pensamos en IA, solemos imaginar máquinas completamente nuevas. Sin embargo, algunos de los avances más significativos surgen de herramientas que ya usamos. El electrocardiograma, con más de un siglo de uso, hoy puede revelar con IA riesgos tempranos de miocardiopatía o insuficiencia cardíaca. En oftalmología, la IA potencia las imágenes de retina para detectar retinopatía diabética antes de que se manifieste clínicamente (Abràmoff et al., 2018). Los instrumentos no cambian: lo que cambia es la capa interpretativa. La IA no reemplaza lo conocido, lo enriquece.

VII. El robot lo verá ahora

Existe también la posibilidad de que la IA se convierta en el primer punto de contacto: en triaje, programación y evaluación inicial. Millones de personas que carecen de acceso a médicos podrían recibir orientación en segundos.

El riesgo está en que los médicos sean desplazados de las etapas iniciales de evaluación, erosionando habilidades basadas en la observación y la escucha clínica (Shneiderman, 2020). El reto es equilibrar eficiencia y presencia humana.

VIII. El efecto rebote de la IA

Aquí emerge lo que puede llamarse efecto rebote de la IA: cuando los humanos dependen demasiado de ella, su desempeño no regresa a la línea base al retirarla, sino que cae por debajo. Un radiólogo que confía en exceso en los informes de la máquina puede perder precisión; un clínico que delega decisiones puede fallar cuando deba decidir solo (Topol, 2019).

Esto no significa rechazar la IA, sino diseñar su uso con cuidado. Es indispensable entrenar también sin ella, como hacen los pilotos con fallos de motor simulados.

  1. Anti-inteligencia como diferencia

Para sostener la promesa y la paradoja de la IA, se requiere claridad conceptual. Aquí surge la noción de anti-inteligencia: la fluidez de la máquina no implica comprensión. El ser humano ancla significados en memoria, narrativas y experiencia vivida. La máquina solo genera en función de probabilidades (Floridi & Chiriatti, 2020).

Confundir fluidez con comprensión es el verdadero peligro. Una explicación persuasiva puede carecer de toda verdad. Por ello, la capacidad crítica del humano se vuelve indispensable.

  1. Psicosis mediada por IA

En los márgenes de la cognición, los riesgos se intensifican. Ya existen casos donde individuos vulnerables caen en estados parecidos a la psicosis, alimentados por las alucinaciones de la IA (Nosta, 2023). La psiquiatría siempre ha reconocido cómo señales externas moldean la patología interna. La IA introduce una nueva señal: habla con autoridad, pero sin responsabilidad. Aún no es generalizado, pero constituye una advertencia.

  1. Manzanas e IA [Una reflexión final]

Una manzana no es solo una fruta: para los humanos, es memoria, mito y sensación; para las máquinas, coordenadas en miles de dimensiones. Esa diferencia resume tanto la promesa como la paradoja de la IA en medicina. El futuro de la medicina no pertenecerá al hombre o a la máquina, sino al diálogo entre discernimiento humano y fluidez artificial.

 

Referencias 

  • Abràmoff, M. D., Lavin, P. T., Birch, M., Shah, N., & Folk, J. C. (2018). Pivotal trial of an autonomous AI-based diagnostic system for detection of diabetic retinopathy in primary care offices. NPJ Digital Medicine, 1(1), 39. https://doi.org/10.1038/s41746-018-0040-6 

Bengio, Y., Courville, A., & Vincent, P. (2013).

  • Representation learning: A review and new perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(8), 1798–1828. https://doi.org/10.1109/TPAMI.2013.50 
  • Floridi, L., & Chiriatti, M. (2020). GPT-3: Its nature, scope, limits, and consequences. Minds and Machines, 30(4), 681–694. https://doi.org/10.1007/s11023-020-09548-1 
  • Marcus, G., & Davis, E. (2019). Rebooting AI: Building artificial intelligence we can trust. New York: Pantheon.
  • Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human-Computer Interaction, 36(6), 495–504. https://doi.org/10.1080/10447318.2020.1741118 
  • Topol, E. (2019). Deep medicine: How artificial intelligence can make healthcare human again. New York: Basic Books
Salir de la versión móvil