Baltimore demanda a xAI por daños causados por Grok con deepfakes
Antecedentes
La empresa de inteligencia artificial de Elon Musk, xAI, lanzó el chatbot Grok, promocionándolo como un asistente de inteligencia artificial de propósito general. Junto con el chatbot, Grok ofrece una función de generación de imágenes que ha generado una intensa escrutinía. Según el Centro para Contrarrestar el Odio Digital, la herramienta se utilizó para producir un estimado de tres millones de imágenes sexualizadas en un período de once días. De esas imágenes, aproximadamente veintitrés mil retrataron menores, lo que genera preocupaciones sobre la creación de material de abuso sexual infantil.
Acción legal
En respuesta, la ciudad de Baltimore presentó una denuncia municipal contra xAI, afirmando que la empresa violó la Ordenanza de Protección al Consumidor de la ciudad. La queja, informada por The Guardian, afirma que xAI comercializó Grok sin revelar los posibles riesgos y daños asociados con su uso, particularmente la generación de imágenes no consensuadas y ilegales. La abogada de la ciudad, Ebony M. Thompson, enfatizó que las leyes de protección al consumidor de Baltimore existen para salvaguardar a los residentes de los daños tecnológicos emergentes. Ella declaró que cuando las empresas introducen tecnologías poderosas sin guardrails adecuados, la ciudad tiene tanto la autoridad como la obligación de actuar.
Contexto más amplio
La demanda se suma a una creciente ola de desafíos regulatorios y legales que apuntan a herramientas de generación de imágenes de inteligencia artificial. Los reguladores de todo el mundo han limitado el acceso o han iniciado investigaciones sobre plataformas que permiten la creación potencialmente ilegal y no consensuada de imágenes. En los Estados Unidos, se presentó una posible acción colectiva por tres adolescentes que alegaron que se utilizaron fotos de ellos para crear material de abuso sexual infantil. Si bien el gobierno federal aún no ha tomado medidas directas contra xAI, la demanda municipal de Baltimore representa un enfoque novedoso al utilizar estatutos de protección al consumidor locales para abordar los riesgos relacionados con la inteligencia artificial.
Implicaciones
Los funcionarios de la ciudad argumentan que la acción legal tiene como objetivo proteger a los residentes, responsabilizar a las empresas tecnológicas y prevenir la instauración de daños a medida que la tecnología de inteligencia artificial continúa evolucionando. El caso puede sentar un precedente para cómo los municipios pueden utilizar leyes de protección al consumidor para regular aplicaciones de inteligencia artificial emergentes, especialmente aquellas capaces de generar contenido visual dañino.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas