Atrás

Google retira el modelo de inteligencia artificial Gemma después de que una senadora lo acusara de fabricar denuncias de agresión

Google retira el modelo de inteligencia artificial Gemma después de que una senadora lo acusara de fabricar denuncias de agresión

Antecedentes

Google ofrece una suite de herramientas de inteligencia artificial para desarrolladores, incluido el modelo Gemma, diseñado para tareas especializadas como asistencia de codificación y aplicaciones médicas. El modelo se hospeda en la plataforma AI Studio de Google, donde los desarrolladores pueden experimentar con sus capacidades. No se comercializa como un chatbot orientado al consumidor.

Alegación de difamación

La senadora Marsha Blackburn, republicana de Tennessee, informó que le preguntó al modelo Gemma si alguna vez había sido "acusada de violación". Según la senadora, el modelo respondió afirmativamente y fue más allá, fabricando una narrativa detallada que afirmaba que había tenido una relación sexual con un trooper estatal durante una campaña para el senado estatal. La respuesta también enumeró artículos de noticias falsos que supuestamente respaldaban la alegación, aunque los enlaces conducían a páginas de error o contenido no relacionado.

Blackburn describió el incidente como una difamación grave, escribiendo al director ejecutivo de Google, Sundar Pichai, para exigir acción. Afirmó que la salida del modelo no fue una alucinación inofensiva, sino una falsedad deliberada que podría dañar su reputación.

Respuesta de Google

En respuesta a la queja de la senadora, Google anunció que retiraría a Gemma del entorno de AI Studio para evitar confusiones y más incidentes. La empresa enfatizó que Gemma está destinado al uso de desarrolladores y no para responder a preguntas factuales del público en general. A pesar de retirar el modelo de la interfaz de Studio, Google dijo que el modelo seguiría estando disponible para los desarrolladores a través de su API, preservando su funcionalidad para fines de desarrollo legítimos.

Google también señaló que la salida errónea se debió a los datos de entrenamiento del modelo y a los desafíos inherentes de los grandes modelos de lenguaje que generan información inexacta o falsa. La empresa reiteró su compromiso de mejorar la seguridad y precisión del modelo.

Acusaciones de sesgo político

Más allá del incidente específico, la senadora Blackburn acusó a Google de mantener un "patrón consistente de sesgo contra figuras conservadoras". Sugirió que la afirmación falsa generada por Gemma fue parte de una tendencia más amplia de la tecnología de la empresa que se utiliza para apuntar o tergiversar a políticos conservadores.

En tanto Google no ha abordado públicamente la alegación de sesgo en detalle, el episodio destaca las preocupaciones en curso sobre la confiabilidad del contenido generado por IA y el potencial de uso político.

Implicaciones

La eliminación de Gemma de la plataforma AI Studio subraya la tensión entre el desarrollo rápido de la IA y la responsabilidad de prevenir la desinformación, especialmente cuando involucra a individuos reales. También plantea preguntas sobre cómo los proveedores de IA manejarán reclamos similares de difamación o sesgo en el futuro, y qué salvaguardias se pueden implementar para proteger a los usuarios y a las figuras públicas de falsedades dañinas generadas por sistemas de IA.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: