Conecta con nosotros

Ciencia & Tecnologia

Estudio alerta sobre los riesgos de usar el chatbots de IA para orientaciones médicas a pacientes

Foto del avatar

Publicado

en

Redacción Ciencia.– El uso de chatbots basados en inteligencia artificial para evaluar síntomas y orientar decisiones médicas puede representar un riesgo para los pacientes, debido a la entrega de información inexacta o inconsistente, según advierte un estudio publicado este lunes en la revista Nature Medicine.

La investigación, encabezada por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria de la Universidad de Oxford, concluye que las personas que recurrieron a modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) no tomaron mejores decisiones que aquellas que utilizaron métodos tradicionales, como búsquedas en internet o su propio criterio.

El estudio se produce en un contexto en el que diversos proveedores de salud han propuesto el uso de herramientas de inteligencia artificial como apoyo para evaluaciones médicas preliminares, antes de acudir a un profesional de la salud.

Para evaluar su efectividad, los investigadores analizaron si los LLM podían ayudar a identificar afecciones comunes, como resfriados, anemia o cálculos biliares, y orientar a los usuarios sobre la necesidad de acudir a un médico general o a un centro hospitalario.

Los resultados indicaron que el desempeño práctico de estas herramientas no superó al de las fuentes tradicionales de información. En un ensayo aleatorio con cerca de 1,300 participantes, un grupo utilizó un chatbot de IA para apoyar su toma de decisiones, mientras que otro recurrió a búsquedas convencionales en internet.

Los escenarios planteados, elaborados por profesionales de la medicina, incluyeron situaciones cotidianas como dolores de cabeza intensos o síntomas persistentes de fatiga y dificultad respiratoria.

Tras revisar las interacciones, los investigadores identificaron deficiencias tanto en la información proporcionada por los usuarios como en las respuestas generadas por los modelos de lenguaje, que en algunos casos ofrecieron recomendaciones confusas o incorrectas, combinando orientaciones adecuadas con otras inapropiadas.

El estudio concluye que los actuales modelos de lenguaje no están preparados para ser utilizados en la atención directa al paciente y recomienda que estos sistemas sean sometidos a pruebas rigurosas en entornos reales antes de su implementación generalizada.

Los autores señalan que, pese al interés creciente en la inteligencia artificial aplicada a la salud, su uso en áreas sensibles continúa presentando importantes desafíos y requiere mayores controles para garantizar la seguridad de los pacientes.

SOBRE EL AUTOR

Los conceptos emitidos por medio de esta plataforma son única y exclusiva responsabilidad del escritor. SUR INFORMA RD. no es, ni se hace responsable de los mismos, ya que su objetivo al recibirlos en redacción son únicamente la difusión. SUR INFORMA RD, esta registrado Bajo la marca LUGPRESS DIGITAL. Reg. Mercantil No. 973BH-PF. Copyright © 2026