Atrás

Google retira el modelo de inteligencia artificial Gemma después de que senadora lo acusa de fabricar alegaciones

Google retira el modelo de inteligencia artificial Gemma después de que senadora lo acusa de fabricar alegaciones

Antecedentes

La serie Gemma de Google se comercializa como una familia de modelos de inteligencia artificial diseñados para que los desarrolladores los integren en aplicaciones. Los modelos se ofrecen a través de la plataforma AI Studio de Google y, por separado, a través de una API para uso de desarrolladores. Google ha enfatizado que Gemma no es un chatbot orientado al consumidor y no debe usarse para responder preguntas factuales.

Queja de la senadora

La senadora Marsha Blackburn, republicana de Tennessee, escribió al director ejecutivo de Google, Sundar Pichai, alegando que Gemma generó una declaración falsa que afirmaba que ella había sido acusada de una relación sexual con un trooper estatal durante su campaña de 1987 para el senado estatal. El modelo también proporcionó una lista de artículos de noticias falsificados para respaldar la afirmación. Blackburn señaló que el año de la campaña alegada era incorrecto; su campaña real ocurrió en 1998, y los enlaces proporcionados por el modelo llevaron a páginas de error o contenido no relacionado. Ella caracterizó la respuesta como difamación y exigió que Google cerrara el modelo hasta que pudiera ser controlado.

Respuesta de Google

En una publicación en X, la cuenta de noticias oficial de Google, la empresa dijo que había "visto informes de no desarrolladores que intentan usar Gemma en AI Studio y hacerle preguntas factuales". Para evitar más confusiones, Google eliminó el acceso a Gemma desde AI Studio, afirmando que el modelo seguiría siendo accesible para desarrolladores a través de la API. La empresa reiteró su compromiso de "minimizar las alucinaciones y mejorar continuamente todos nuestros modelos".

Implicaciones

El incidente destaca los desafíos continuos con las alucinaciones de la inteligencia artificial: situaciones en las que los modelos generan información falsa o engañosa que parece factual. Si bien Google reconoce estos problemas, el episodio subraya la tensión entre las herramientas de inteligencia artificial orientadas a desarrolladores y las expectativas públicas de precisión, especialmente cuando se involucran figuras políticas. La queja de la senadora agrega una dimensión política, lo que genera escrutinio sobre cómo las salidas de la inteligencia artificial pueden afectar las reputaciones y la importancia de salvaguardias sólidas contra la difamación.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: