Atrás

Informe de Salud de la Casa Blanca enfrenta escrutinio por citas falsificadas y alucinaciones de IA

Informe de Salud de la Casa Blanca enfrenta escrutinio por citas falsificadas y alucinaciones de IA

Antecedentes del informe MAHA

La Casa Blanca publicó su primer informe "Hacer que América vuelva a ser saludable" (MAHA) con el objetivo de guiar la política de salud nacional. Entre sus recomendaciones, el informe pidió abordar la crisis de replicación en el sector de investigación de la salud y urgió al Departamento de Salud y Servicios Humanos (HHS) a priorizar la investigación de inteligencia artificial para diagnósticos más tempranos, planes de tratamiento personalizados, monitoreo en tiempo real y intervenciones predictivas.

Criticas por citas falsificadas

Poco después de su publicación, los periodistas identificaron múltiples citas en el informe MAHA que se referían a estudios que no se podían encontrar. Las referencias falsificadas se describieron como características de alucinaciones producidas por sistemas de modelo de lenguaje grande (LLM), que pueden generar fuentes creíbles pero inexistentes. En respuesta, la Casa Blanca se opuso a la cobertura periodística, pero más tarde admitió que el informe contenía "errores menores de citación".

Alucinaciones de IA y sus implicaciones

El incidente ha reiniciado la discusión sobre la confiabilidad del contenido generado por IA en documentos de política. Los analistas señalan que el mismo tipo de citas falsas han aparecido en entornos judiciales, donde las herramientas de IA han introducido inadvertidamente casos, citas y decisiones ficticios, obligando a los abogados a aclarar errores a los jueces. El énfasis del mapa de ruta de MAHA en la integración de IA en la atención médica plantea preocupaciones de que las alucinaciones no controladas puedan socavar los objetivos que el informe promueve.

Potenciales bucles de retroalimentación y amplificación de sesgos

Los expertos advierten que incorporar investigaciones generadas por IA con referencias inexactas en la política pública podría crear un bucle de retroalimentación. Los datos erróneos pueden volver a alimentar los conjuntos de datos de entrenamiento, reforzando sesgos y aumentando la probabilidad de futuras alucinaciones. Este ciclo amenaza con erosionar la confianza en las iniciativas de salud impulsadas por IA y podría complicar los esfuerzos para mejorar la reproducibilidad en la investigación médica.

Equilibrar la innovación con la verificación

Si bien el informe MAHA subraya la promesa de la IA para transformar los diagnósticos y el tratamiento de la salud, la controversia subraya la necesidad de procesos de verificación estrictos. Los interesados abogan por una fuente transparente, una revisión por pares rigurosa y mecanismos de supervisión para garantizar que las herramientas de IA apoyen, en lugar de comprometer, la integridad científica.

Mirando hacia adelante

El reconocimiento de la Casa Blanca de los errores de citación señala la voluntad de abordar el problema, pero la conversación más amplia sobre la confiabilidad de la IA en la política de salud sigue abierta. A medida que el HHS avanza con las iniciativas de investigación de IA, el equilibrio entre la innovación rápida y la validación meticulosa será fundamental para mantener la confianza pública y lograr los ambiciosos objetivos de salud del informe.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: