El CEO de Anthropic advierte sobre los riesgos de la IA en la vigilancia doméstica y las armas autónomas
Antecedentes
Anthropic, una empresa de inteligencia artificial, se ha convertido en un punto focal en los debates sobre cómo se deben aplicar las tecnologías de IA avanzadas. El director ejecutivo de la empresa, Dario Amodei, ha articulado públicamente la postura de la empresa sobre dos temas controvertidos: el uso de la IA para la vigilancia doméstica masiva y el despliegue de armas completamente autónomas.
IA y vigilancia doméstica
Amodei explicó que aunque la empresa apoya el uso de la IA para misiones de inteligencia y contrainteligencia extranjeras legales, emplear las mismas herramientas para la vigilancia a gran escala de ciudadanos dentro de Estados Unidos entra en conflicto con los principios democráticos. Señaló que la ley actual permite al gobierno comprar registros detallados de los movimientos, la navegación web y las asociaciones de los estadounidenses de fuentes públicas sin una orden judicial. La IA, según Amodei, permite la ensambladura automática de estos datos dispersos, individualmente inocuos, en una imagen completa de la vida de cualquier persona, y hacerlo a gran escala plantea riesgos profundos para la gobernanza democrática.
Armas autónomas
En cuanto a los sistemas de armas, Amodei expresó su apoyo a las armas parcialmente autónomas, como las utilizadas en el conflicto en Ucrania, pero drew una línea en las armas completamente autónomas que eliminan a los humanos del bucle de toma de decisiones por completo. Argumentó que los modelos de IA no son lo suficientemente confiables para asumir la responsabilidad de tomar decisiones letales por sí solos. Aunque reconoció que las armas completamente autónomas podrían ser eventualmente críticas para la defensa nacional, enfatizó que la tecnología no es actualmente confiable para ese propósito.
Reacción de la industria y implicaciones políticas
Las declaraciones de Amodei han generado discusión entre las empresas de tecnología, los formuladores de políticas y los grupos de defensa. Algunos líderes políticos han descrito a Anthropic en términos duros, reflejando preocupaciones más amplias sobre la influencia de la empresa en la política de IA. Las declaraciones subrayan una tensión continua entre fomentar la innovación estadounidense en IA de frontera y abordar los desafíos éticos y de seguridad que plantea su despliegue.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas