Atrás

Informe de The Guardian cuestiona la credibilidad del modelo GPT-5.2 de OpenAI sobre citaciones de fuentes

Informe de The Guardian cuestiona la credibilidad del modelo GPT-5.2 de OpenAI sobre citaciones de fuentes

Antecedentes

OpenAI describió su modelo GPT-5.2 como el modelo de frontera más avanzado para el trabajo profesional. La empresa posicionó el sistema para manejar tareas complejas como la creación de hojas de cálculo y otras aplicaciones profesionales.

Hallazgos de The Guardian

The Guardian realizó pruebas que cuestionaron la credibilidad del modelo. Según el informe, GPT-5.2 citó Grokipedia, una enciclopedia en línea impulsada por xAI, al responder preguntas sobre temas controvertidos relacionados con Irán y el Holocausto. Ejemplos específicos incluyeron afirmaciones de que el gobierno iraní estaba vinculado a la empresa de telecomunicaciones MTN-Irancell y referencias al historiador británico Richard Evans, quien sirvió como testigo experto en un juicio por difamación que involucraba al negador del Holocausto David Irving.

La investigación también observó que GPT-5.2 no se basó en Grokipedia para una pregunta sobre sesgo mediático contra Donald Trump y otros temas controvertidos, lo que indica un uso inconsistente de fuentes.

Lanzamiento del modelo y controversia

OpenAI lanzó GPT-5.2 en diciembre, enfatizando su rendimiento mejorado para uso profesional. Grokipedia, que existía antes del lanzamiento del modelo, ya había atraído escrutinio por citar foros neonazis. Un estudio de investigadores estadounidenses informó además que la enciclopedia generada por IA hizo referencia a fuentes descritas como "cuestionables" y "problemáticas".

Respuesta de OpenAI

En respuesta al informe de The Guardian, OpenAI declaró que GPT-5.2 busca en la web una amplia gama de fuentes y puntos de vista públicamente disponibles. La empresa agregó que se aplican filtros de seguridad para reducir el riesgo de mostrar enlaces asociados con daños de alta gravedad.

Implicaciones

Los hallazgos destacan los desafíos continuos para garantizar la confiabilidad de los grandes modelos de lenguaje, especialmente cuando se basan en contenido generado por IA de terceros. La discrepancia en la selección de fuentes plantea preguntas sobre la transparencia y la efectividad de los mecanismos de seguridad diseñados para filtrar información perjudicial o poco fiable.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: