Una investigación internacional advierte que la mitad de las respuestas de chatbots sobre salud carecen de rigor científico, lo que plantea desafíos urgentes en regulación, acceso a información confiable y protección de los pacientes.
La inteligencia artificial se ha convertido en una herramienta cotidiana para resolver dudas médicas. Cada vez más personas consultan chatbots en lugar de acudir a un profesional o incluso a fuentes especializadas. Sin embargo, un reciente estudio internacional pone en cuestión esta práctica, confiar en estos sistemas para decisiones de salud podría implicar riesgos significativos.
Del buscador al chatbot
El auge de plataformas como ChatGPT, Gemini o Meta AI ha cambiado la forma en que circula la información. En lugar de comparar fuentes, muchos usuarios reciben una respuesta única, aparentemente clara y definitiva. Este cambio no es menor, porque transforma la relación entre ciudadanía y conocimiento.
A diferencia de un médico o un investigador, estos sistemas no verifican datos ni jerarquizan evidencia. Su funcionamiento se basa en patrones de lenguaje aprendidos a partir de grandes volúmenes de información, donde conviven estudios científicos con contenidos no verificados. Esa mezcla, invisible para el usuario, es parte del problema.
Lo que revela la investigación
El estudio, publicado en BMJ Open y realizado por el Instituto Lundquist para la Innovación Biomédica, analizó cinco de los modelos más utilizados mediante un conjunto de 250 preguntas sobre temas sensibles como cáncer, vacunas y nutrición.
Los resultados muestran un panorama preocupante. Aproximadamente la mitad de las respuestas evaluadas presentaban algún tipo de problema, y una proporción significativa podía inducir directamente a decisiones perjudiciales para la salud.
El investigador Nicholas Tiller advierte que existe una idea equivocada sobre estas tecnologías, ya que muchos usuarios creen que poseen conocimiento en sentido estricto, cuando en realidad no tienen la capacidad de validar la información que generan.
Otro hallazgo crítico tiene que ver con las fuentes. Ninguno de los sistemas evaluados logró ofrecer referencias completamente fiables, y en muchos casos se detectaron citas inventadas que simulaban rigor académico.
Más allá de los errores puntuales, el estudio pone el foco en un fenómeno más profundo: la forma en que la información es presentada. Las respuestas suelen estar redactadas con seguridad y fluidez, lo que genera una percepción de autoridad incluso cuando el contenido es incorrecto.
A esto se suma el uso de lenguaje técnico, que puede dificultar la comprensión en amplios sectores de la población. Paradójicamente, esa complejidad tiende a aumentar la confianza del usuario, creando una ilusión de precisión que no siempre corresponde con la realidad.
Desigualdad y riesgos
El problema adquiere una dimensión más grave cuando se observa desde el acceso desigual a la salud. En contextos donde las consultas médicas son costosas o escasas, los chatbots pueden convertirse en la primera —y a veces única— fuente de orientación.
Esto abre la puerta a decisiones basadas en información incompleta o errónea. En sociedades con brechas estructurales, como ocurre en buena parte de América Latina, el riesgo es que estas herramientas profundicen desigualdades existentes, en lugar de reducirlas.
El fenómeno también tiene implicaciones en la confianza pública. Si la desinformación se amplifica a través de tecnologías percibidas como confiables, se puede erosionar la credibilidad de la ciencia y del sistema de salud.
El avance de la inteligencia artificial en el ámbito de la salud plantea un dilema urgente. Por un lado, ofrece acceso rápido y masivo a información; por otro, expone a la ciudadanía a errores difíciles de detectar.
La investigación sugiere que el desafío no es frenar estas tecnologías, sino integrarlas con responsabilidad. Esto implica fortalecer la educación digital, promover una regulación más estricta y garantizar que la información médica siga siendo mediada por criterios científicos y éticos.
En un contexto donde la información puede impactar directamente la vida de las personas, la pregunta central ya no es qué tan avanzada es la tecnología, sino qué tan segura es para quienes la usan.






