.jpg)
Un estudio en Nature Medicine advierte que los chatbots de IA no mejoran las decisiones médicas de los usuarios y pueden ofrecer información inexacta o engañosa.
Un estudio publicado en Nature Medicine advierte que los modelos de lenguaje basados en inteligencia artificial no mejoran las decisiones de quienes buscan orientación sobre síntomas médicos. La investigación, liderada por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria de la Universidad de Oxford, encontró una brecha significativa entre lo que prometen estos sistemas y su utilidad real en contextos de salud.
Otras noticias:Boric impulsará la candidatura de Bachelet en la ONU
En los últimos años, distintos proveedores sanitarios han promovido los modelos de lenguaje de gran tamaño como herramientas para evaluaciones preliminares. Sin embargo, el estudio concluye que quienes usaron estos sistemas no tomaron mejores decisiones que quienes recurrieron a búsquedas tradicionales en internet o a su propio criterio.
El equipo realizó un ensayo aleatorio con cerca de 1.300 personas. Los investigadores presentaron escenarios clínicos diseñados por médicos, como el caso de un joven con fuerte dolor de cabeza tras una salida nocturna o el de una madre primeriza con fatiga persistente.
Un grupo utilizó un chatbot de IA para orientar su decisión, mientras otro empleó métodos convencionales de búsqueda. Los resultados mostraron que el uso de inteligencia artificial no aumentó la precisión al identificar afecciones como resfriado común, anemia o cálculos biliares, ni mejoró la decisión sobre acudir a un médico o a un hospital.
Léase también: Departamento de Justicia de EEUU publica 3 millones de páginas de archivos de Epstein
El análisis detallado reveló problemas en la interacción entre usuarios y modelos. Muchos participantes ofrecieron información incompleta, pero los sistemas también generaron respuestas inexactas o mezclaron recomendaciones correctas con consejos equivocados.
Andrew Bean, autor principal del estudio, afirmó que diseñar pruebas sólidas resulta clave para evaluar estas tecnologías. Por su parte, la médica Rebecca Payne subrayó que los sistemas de IA deben someterse a pruebas rigurosas en entornos reales antes de implementarse en atención directa al paciente.
Los investigadores concluyen que, en su estado actual, estos modelos no están listos para sustituir la orientación médica profesional.
Te puede interesar: Manifestantes convocan a huelga nacional contra las políticas migratorias de Trump










