IA y salud: por qué los chatbots siguen siendo poco fiables para las decisiones médicas

Gemini evoluciona: Google transforma su IA en asistente personal con memoria e importación de datos

En un mundo donde la IA se ha convertido en un reflejo cotidiano, los chatbots se están estableciendo gradualmente como motores de búsqueda alternativos, incluso en temas sensibles como la salud.

Sin embargo, un estudio reciente recuerda una realidad menos tranquilizadora: detrás de respuestas fluidas y convincentes, la fiabilidad es desigual y, en ocasiones, preocupante.

Un estudio que pone a prueba los principales chatbots

Investigadores han analizado cinco plataformas importantes de IA conversacional: ChatGPT, Gemini, Grok, Meta AI y DeepSeek.

El protocolo consistió en 250 preguntas abarcando áreas críticas, como el cáncer, las vacunas, la nutrición y el rendimiento deportivo. El objetivo era claro: medir la alineación de las respuestas con el consenso científico y su capacidad para evitar la desinformación.

¿El resultado? Aproximadamente una respuesta de cada dos se consideró problemática — ya sea por falta de precisión o por contener información engañosa e incluso potencialmente peligrosa.

Las preguntas abiertas, talón de Aquiles de las IA

El estudio revela un punto clave: cuanto más abierta es la pregunta, mayor es el riesgo de error. A diferencia de los tests cerrados (tipo opción múltiple), las preguntas cotidianas suelen ser vagas: «¿Este tratamiento funciona?», «¿Es segura esta vacuna?», «¿Cómo puedo mejorar mi rendimiento?».

Frente a estas formulaciones, los modelos tienden a producir respuestas híbridas: una mezcla de información sólida y elementos más discutibles. Esta zona gris es difícil de detectar para el usuario promedio.

Respuestas convincentes… pero mal fundamentadas

Otro punto crítico es la calidad de las referencias.

  • Puntuación media de completitud: 40 %
  • Ninguna IA proporcionó una bibliografía completamente fiable
  • Presencia de fuentes inventadas o incorrectas

El paradoja es notable: cuanto más segura es la respuesta, mayor confianza inspira, incluso cuando sus fundamentos son débiles. Las IA raramente señalan sus incertidumbres, lo que refuerza esta ilusión de autoridad.

Una tecnología aún en transición estratégica

Sería simplista condenar estas herramientas. El estudio mismo matiza sus conclusiones: los modelos evolucionan rápidamente, los escenarios probados eran exigentes y los usos reales a veces son más moderados.

Sin embargo, la señal es clara. Los gigantes de la tecnología — desde OpenAI hasta Google y Meta — están lidiando en una batalla estratégica: hacer de la IA un asistente confiable en áreas críticas.

Sin embargo, la salud exige un estándar mucho más alto que la simple relevancia informativa. Se requiere rigor, transparencia y precaución, tres cualidades que todavía son imperfectamente dominadas por los modelos actuales.

Hacia un rol de asistente… pero no de decisor

En la actualidad, el posicionamiento más realista de los chatbots es el de herramienta auxiliar:

  • comprender un tema complejo
  • preparar preguntas para hacer a un profesional
  • obtener una primera síntesis

Pero, no tomar decisiones médicas. Esta evolución dice mucho sobre la madurez actual de la IA: impresionante en forma, pero aún mejorable en contenido. Y en un ámbito donde el error no perdona, la matización se vuelve esencial.


Scroll al inicio