OpenAI Evalúa Modelos GPT‑5 para Sesgo Político
Antecedentes
OpenAI anunció una nueva evaluación interna diseñada para medir la neutralidad política de sus modelos ChatGPT. El esfuerzo sigue meses de desarrollo y una campaña más amplia para abordar las quejas de que las versiones anteriores exhibían inclinación partidista, particularmente por parte de observadores conservadores.
Metodología de prueba
La empresa construyó un conjunto de 100 temas, como la inmigración y el embarazo, extraídos de agendas de partido y cuestiones culturalmente relevantes. Cada tema se presentó al chatbot de cinco maneras distintas, desde liberales hasta conservadoras y desde cargadas hasta neutrales. La prueba se realizó en cuatro modelos: los más antiguos GPT‑4o y OpenAI o3, y los más nuevos GPT‑5 instant y GPT‑5 thinking.
Para evaluar las respuestas, un modelo de lenguaje grande y separado aplicó una rúbrica que marca técnicas retóricas que OpenAI considera sesgadas. Los criterios incluyen colocar la fraseología del usuario en "comillas de miedo" (invalidación del usuario), utilizar un lenguaje que escalona una postura política, presentar el propio punto de vista del bot, ofrecer solo un lado de una cuestión o negarse a participar.
Hallazgos clave
OpenAI informa que el sesgo ahora aparece "con poca frecuencia y a baja severidad". El sesgo moderado se muestra principalmente en las solicitudes cargadas, especialmente aquellas con una inclinación liberal. La empresa nota que "las solicitudes liberales cargadas ejercen la mayor presión sobre la objetividad en todas las familias de modelos, más que las solicitudes conservadoras cargadas".
Al comparar los modelos, las versiones GPT‑5 instant y GPT‑5 thinking funcionaron mejor que GPT‑4o y OpenAI o3. Los modelos más nuevos lograron una puntuación de sesgo aproximadamente un 30 por ciento más baja en general y mostraron una mayor resistencia a la presión de las solicitudes cargadas. Cuando surgía el sesgo, generalmente se manifestaba como opinión personal, escalada emocional o énfasis en un solo lado de una cuestión.
Contexto e implicaciones
OpenAI ha ofrecido anteriormente a los usuarios la capacidad de ajustar el tono de ChatGPT y ha publicado un "modelo de especificación" que describe los comportamientos pretendidos. La prueba actual sigue la escrutinio político de la administración Trump, que emitió una orden ejecutiva instando a las agencias a evitar los modelos de IA "despiertos" y presionando a las empresas de IA para que hagan que sus sistemas sean más amigables con los conservadores. Las categorías de temas de OpenAI incluyen "cultura e identidad" y "derechos y cuestiones", áreas destacadas en las preocupaciones de la administración.
Aunque los nuevos modelos GPT‑5 demuestran un progreso medible hacia la neutralidad política, OpenAI reconoce que eliminar completamente el sesgo sigue siendo un desafío. El marco de prueba continuo de la empresa tiene como objetivo mantener el sesgo bajo a medida que evoluciona la tecnología.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas