Inscripciones abiertas — Máster en IA para Profesionales de la SaludIV Edición · 60 ECTS · UCAMInscripciones abiertas — Máster en IA para Profesionales de la SaludIV Edición · 60 ECTS · UCAMInscripciones abiertas — Máster en IA para Profesionales de la SaludIV Edición · 60 ECTS · UCAMInscripciones abiertas — Máster en IA para Profesionales de la SaludIV Edición · 60 ECTS · UCAM
IAcademia
Newsletter

Los chatbots de IA dan respuestas médicas erróneas la mitad de las veces

Ernesto Ibáñez
Ernesto IbáñezDirector de IAcademia
21 abr 2026

Se acaba de publicar un estudio en BMJ Open que pone cifras a lo que ya sospechabas. La mitad de lo que responden los chatbots sobre temas médicos no es fiable. Y tus pacientes los están usando cada vez más.

Los chatbots de IA dan respuestas médicas erróneas la mitad de las veces

Un equipo internacional ha evaluado los cinco chatbots más usados (ChatGPT, Gemini, Meta AI, Grok y DeepSeek) con 50 preguntas sobre cáncer, vacunas, células madre, nutrición y rendimiento deportivo. Preguntas abiertas y cerradas, del tipo que haría cualquier paciente.

¿El resultado? El 50% de las respuestas fueron problemáticas. Un 20% altamente, un 30% parcialmente. Los chatbots aciertan más en vacunas y cáncer, y fallan más en células madre y nutrición. Los autores documentan alucinaciones, citas inventadas y un tono de seguridad que no siempre está justificado.

No es un problema menor. Millones de personas usan estos sistemas como primera consulta médica. Los investigadores advierten de un riesgo real de salud pública si esto avanza sin supervisión ni alfabetización del usuario.

¿Qué significa esto para ti? Tu paciente llega a consulta con la tarea medio hecha por ChatGPT. Y la ha aprobado la mitad de las veces. Ya no basta con decirle "no te fíes de la IA". Hay que enseñarle a usarla con criterio. Ese también es consejo sanitario, aunque no entrara en la carrera.


Radar de la semana

La OCDE señala los frenos de la IA en la sanidad española. Un nuevo informe pone el dedo en dos problemas concretos. Uno, los datos clínicos no se entienden entre comunidades (falta de interoperabilidad). Cada autonomía ha montado su sistema con sus propios formatos de historias clínicas, informes y pruebas, lo que hace casi imposible entrenar modelos de IA con datos unificados o compartir herramientas entre regiones. Dos, los proyectos buenos se quedan en el piloto. Funcionan en un hospital o en una comunidad, pero raramente dan el salto al resto del país. La OCDE reclama estándares comunes y mecanismos institucionales que permitan escalar lo que ya funciona, antes de que la sanidad española se quede atrás en una tecnología que en otros sistemas ya es rutina.

OpenAI lanza GPT-Rosalind, su primer modelo para ciencias biológicas. Es el primer modelo de OpenAI construido a medida para un campo concreto: biología, descubrimiento de fármacos y medicina traslacional. El nombre homenajea a Rosalind Franklin, la científica que ayudó a descifrar la estructura del ADN. Está optimizado para razonar sobre química, ingeniería de proteínas y genómica, y se conecta con las herramientas habituales de laboratorio. De momento lo han desplegado en acceso restringido para clientes Enterprise, con socios de lanzamiento como Amgen, Moderna, Novo Nordisk y la Escuela de Farmacia de la UCSF.

Un algoritmo identifica genes de enfermedades raras en el 70% de los casos. Lo firma la Universidad Hebrea de Jerusalén y se llama EvORanker. La idea es sencilla y potente. Compara cómo ha evolucionado un mismo gen en más de 1.000 especies para detectar relaciones que la literatura médica todavía no ha descrito. En vez de mirar solo lo que ya se sabe, mira lo que la evolución ha dejado escrito en los genomas de todo el reino vivo. El algoritmo identificó el gen causante como primer candidato en casi el 70% de los casos, y apareció en el top 5 el 95% de las veces. Ya está disponible para investigadores y clínicos.


La reflexión de la semana

El estudio del BMJ Open es útil, pero evalúa chatbots generales. Son los que usa la mayoría de pacientes, así que tiene sentido medirlos. Lo que pasa es que la conversación se queda coja si no hablamos de fine-tuning, es decir, adaptar un modelo base a un campo concreto. Eso ya no es ciencia ficción. Se puede entrenar un modelo para que responda con precisión en medicina, farmacia o enfermería. Que el modelo general falle no significa que la IA falle. Significa que estamos usando la herramienta equivocada para el trabajo.

Y enlaza con lo de la OCDE. En el máster vemos proyectos increíbles de los alumnos. Ideas sólidas, aplicables. El problema es que cuando salen del máster se quedan en su comunidad autónoma y rara vez cruzan fronteras administrativas. La IA buena ya existe. Lo que nos falta es el sistema que la distribuya.

IAal día

Tu dosis semanal de inteligencia artificial aplicada a la salud. Noticias, herramientas y casos reales directamente en tu bandeja.

+3.000 profesionales sanitarios
IA en diagnósticoHerramientasCasos clínicosRegulaciónSalud digital

Suscríbete gratis

Cada semana en tu email. Sin spam.

Artículos relacionados