El futuro de la medicina ante la inteligencia artificial: mitos y realidades
- 3 Horas, 31 Minutos
- Infobae.com
- Internacional
El futuro de la medicina ante la inteligencia artificial: mitos y realidades

El debate debe ser cómo integrar las nuevas herramientas tecnológicas al servicio de los pacientes y la salud pública
Desde hace un tiempo, varios artículos y entrevistas presagian unfuturo sombríopara lahumanidadfrente a los sistemas deinteligencia artificial. No escapan a esto los diferentes campos de las actividades y el conocimiento, en las cuales el papel delser humanoparece ser que estará relegado a ser un recuerdo de un pasado obsoleto.
Dentro de estos presagios se encuentran, desde ya, aquellos dedicados a ciertos conocimientos o capacitaciones específicas y, entre ellas, a lamedicina. Notas recientes tomaron difusión pública conafirmaciones impactantes. En una, se asegura quela inteligencia artificial diagnostica mejor que los médicosy en otra un gurú tecnológico llega adesaconsejar incluso estudiar medicina, así como otros doctorados. Perodetrás del entusiasmo tecnológico hay exageraciones y riesgos. Veamos.
Unartículopublicado enBussiness Insidery enFuturismexpuso la opinión deJad Tarifi, fundador del primer equipo de inteligencia artificial generativa deGoogle, respecto a los estudios tradicionales y el futuro de la IA.

Tarifi recomendóno preocuparse en estudiar y conseguir títulosen carreras comomedicina o derecho, porque el avance tecnológico ha vuelto obsoletos estos modelos de formación extensos.
El tono sensacionalista refleja bien el problema:titulares que buscan instalar un tema confundiendo, más que realmente llevando claridad. Se trata de una afirmación temeraria y desalentadora desde ya, pero ¿es real o verdadera?
Olvidan que hoy existe undéficit mundial de médicosy que la práctica clínica es mucho más que un cálculo de probabilidades. Hay que recordar que por detrás de la idea de inteligencia artificial existe en realidadun programa de compilación de información sobre base probabilista.
Los LLM (Large Language Model o Modelo de Lenguaje Grande) son un tipo de inteligencia artificial diseñado paraentender y generar lenguaje humano, entrenado con enormes cantidades de texto y código para realizar tareas comocrear contenido, traducir, responder preguntas y simular mantener conversaciones naturales.
Son la base de laIA generativay funcionan prediciendo la siguiente palabra en una secuencia, aprendiendo patrones y estructuras del lenguaje a partir de los datos deentrenamiento. Pero definitivamenteno son inteligencias en el sentido humano o animal que lo pensamos.

La sensación de empatía o comunicaciones parte del protocolo que se puede observar muy bien comparando los modelos GPT-4 y su evolución a 5 con menor participación de esa simulación de “humanidad”.
El efecto buscado es claro:instalar la idea de que la profesión médica es cosa del pasadoy así tener un espacio que definitivamente tiene que ver concontrol y poder.Sin embargo, la realidad es mucho más compleja y la interpretación de las mismas notas más allá de los titulares es otra.
Otroartículofue en la revistaTimey presentó un estudio de Microsoft según el cual un sistema de IA habría diagnosticado con más precisión que médicos humanos.
El artículo citaba unpaper, donde se propone unasimulación compleja de diagnóstico médico a través de IA, basada en 304 casos clínicos desafiantes del New England Journal of Medicine.

El resultado fue que la IA acertó en el 80% de los diagnósticos, frente al 20% de los médicos bajo esas reglas. Perono se trató de pacientes reales, sino de escenarios simuladosy seleccionados por su dificultad pedagógica, como si fueran problemas de examen diseñados para poner a prueba la sagacidad clínica.
La IA funcionó como un“hospital virtual”: un conjunto de submodelos que cumplían roles de distintos especialistas, desde formular hipótesis hasta calcular costos.Esta IA no actúa como un médico humano: actúa como un panel interdisciplinario de médicos virtuales altamente especializados, y con acceso inmediato a datos simulados coherentes.
Los médicos humanos, en cambio, participaron en condiciones muy limitadas,sin acceso a internet ni a recursos externos, lo que distorsiona la comparación y más allá de la cita quita validez a lo postulado mediáticamente en una lectura parcial.Extrapolar esos datos a la práctica clínica cotidiana es engañoso:la vida real no se resuelve en simulaciones ni con un panel de especialistas disponibles las 24 horas. Además, el benchmark utilizado (SDBench) no refleja la práctica cotidiana: son casos difíciles seleccionados por su valor pedagógico, no por su prevalencia clínica.
La verdadera discusión es otra, no si usar o no los LLM, lo cual tendría tanto sentido como rehusar el uso de cualquier tecnología, o abandonar la formación médica, sino renovarla paraintegrar tecnología sin perder el juicio humano ni la ética profesional.

La medicina no es solo elegir eldiagnóstico correctoen un conjunto de síntomas sino que esver, tratar, interactuar con una personay no alimentar un sistema con una colección de síntomas.Implica escuchar al paciente, interpretar la ambigüedad de los síntomas, explicar riesgos, acompañar en la incertidumbre y sostener la confianza.Reducir el acto médico a una competencia de aciertos es olvidar quelo que cura muchas veces no es la tecnología, sino el vínculo humano.Ningún algoritmo puede reemplazar la empatía, la prudencia ni la responsabilidad frente a la vida y la muerte.
Este tipo de discursos no es nuevo. En el siglo XIX, elestetoscopiofue recibido con suspicacia: algunos decían que haría innecesaria la experiencia clínica directa. A comienzos del siglo XX, laradiologíaparecía prometer diagnósticos tan exactos que se pensaba que el médico de cabecera sobraría. Más cerca en el tiempo, en 2011, IBM presentó aWatson Healthcomo la inteligencia artificial que revolucionaría la oncología y desplazaría a los especialistas. Una década después, el proyecto fue desmantelado por falta de resultados clínicos confiables. Pero quizás lo más anecdótico seaPlatónen el “Fedro” que hablaba de los peligros de una nueva “tecnología”: laescritura.
Cadainnovacióngenera un ciclo de euforia, miedo y a veces extrapolaciones catastróficas, pero al final termina integrándose a la práctica médica sin anular la figura del profesional.
Lo que amenaza hoy a la profesión no es la IA, sino elagotamientode los médicos, y otras variables como la falta de especialistas en varios lugares del mundo. La menor matrícula en las universidades o no ser las que los mejores alumnos eligen, etc. La Organización Mundial de la Salud estima queen la próxima década habrá un déficit de 10 millones de trabajadores de la salud en el mundo, sobre todo en atención primaria.

Elburnout, las largas jornadas, laburocraciay lasobrecargade pacientes erosionan la vocación y empujan a muchos a abandonar la profesión. Desalentar a los jóvenes a estudiar medicina bajo el argumento de que “la IA los va a reemplazar” no solo es falso: esirresponsable. Lo quenecesitamos es más médicos, mejor preparados, más motivados, valorados en su esfuerzo de esos largos años de capacitación y con herramientas que los apoyen en vez de sustituirlos o sugerirles que serán pronto dinosaurios. Desalentar a los jóvenes a elegir la profesión solo agravaría un problema ya grave.
Haymuchos cambios por hacery que en alguna medida se van realizando. La educación médica debe cambiar:menos énfasis en la memorización y más en ética, comunicación, liderazgo y capacidad de integrar herramientas tecnológicas.Aprender a usar herramientas como los lenguajes LLM o modelos de investigación y procesamiento de la información adecuados a estas nuevas tecnologías.Pero decir que la medicina está “obsoleta” es confundir crítica con entierro.
La verdadera discusión no es “IA versus médicos”, sino cómo integrar lo mejor de ambos. La inteligencia artificial puede servir como apoyo al diagnóstico, acelerar triages en contextos de alta demanda, o mejorar la precisión en áreas complejas. Pero siempre bajo la supervisión de profesionales responsables.

La medicina del futuro no será la de los médicos sustituidos por máquinas, sino la demédicos que sepan usar la IA como una herramienta más, sin perder el centro humano del cuidado.
El sensacionalismo vende titulares, pero confunde a la sociedad.La medicina no está obsoleta. Lo que está obsoleto es creer que un algoritmo, o el último invento puede reemplazar toda la evolución previa de un saber o conocimiento, en este caso la experiencia, la empatía y la ética de un profesional de carne y hueso.
Por eso, la advertencia para pacientes y lectores es sencilla y debe quedar grabada: en caso de duda, siga consultando a su médico, no a la IA.
* El doctor Enrique De Rosa Alabaster se especializa en temas de salud mental. Es médico psiquiatra, neurólogo, sexólogo y médico legista
0 Comentarios