Atrás

La presidenta de Anthropic, Daniela Amodei, destaca la inteligencia artificial segura como ventaja en el mercado

La presidenta de Anthropic, Daniela Amodei, destaca la inteligencia artificial segura como ventaja en el mercado

Estrategia de seguridad de Anthropic

En el evento de entrevista de WIRED, la presidenta y cofundadora de Anthropic, Daniela Amodei, enfatizó que el compromiso de la empresa con la seguridad y la inteligencia artificial ética no es solo una postura moral, sino también una ventaja en el mercado. Ella explicó que Anthropic ha sido vocal desde el primer día sobre el "potencial increíble" de la inteligencia artificial, y que para realizar este potencial es necesario gestionar los riesgos y hacer que la tecnología sea confiable.

Adopción generalizada de Claude

Amodei señaló que más de 300.000 startups, desarrolladores y empresas utilizan alguna versión del modelo Claude de Anthropic. A través de estas relaciones, Anthropic ha aprendido que los clientes quieren una inteligencia artificial que pueda realizar grandes tareas mientras permanece segura y confiable. "Nadie dice, \'Queremos un producto menos seguro\'", dijo, comparando los informes de seguridad de la empresa con los estudios de pruebas de choque de los fabricantes de automóviles.

Inteligencia artificial constitucional y capacitación ética

El enfoque de "inteligencia artificial constitucional" de Anthropic entrena a los modelos en un conjunto básico de principios éticos y documentos que enseñan valores humanos, como los drawnos de la Declaración Universal de Derechos Humanos de las Naciones Unidas. Este método ayuda a los modelos a responder a consultas no solo sobre la corrección factual, sino también sobre consideraciones éticas más amplias.

Retención y crecimiento de talentos

Según Amodei, la misión y los valores de la empresa atraen a talentos que aprecian la discusión honesta de los beneficios y los riesgos de la inteligencia artificial. El personal de Anthropic ha crecido de 200 empleados a más de 2.000, lo que refleja una confianza interna sólida a pesar del mercado más amplio que habla de una burbuja de inteligencia artificial.

Implicaciones del mercado

Amodei argumentó que la industria se está regulando a sí misma a medida que las empresas crean flujos de trabajo alrededor de la inteligencia artificial que se sabe que alucina menos y produce menos resultados dañinos. Al establecer estándares de seguridad de facto, Anthropic ayuda a dar forma a un mercado donde "sabes que este producto no alucina tanto", lo que lo convierte en una opción preferida sobre los competidores con calificaciones de seguridad más bajas.

Perspectiva futura

Concluyó que los modelos siguen mejorando a lo largo de las curvas de escalado observadas por los investigadores, y los ingresos siguen la misma trayectoria. Mientras que reconoce la necesidad de humildad, Amodei expresó confianza en que el enfoque de Anthropic en la seguridad mantendrá a la empresa y al ecosistema de inteligencia artificial más amplio en una trayectoria de crecimiento positivo.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: