Voltar

Presidente da Anthropic, Daniela Amodei, Destaca IA Segura como Vantagem no Mercado

Presidente da Anthropic, Daniela Amodei, Destaca IA Segura como Vantagem no Mercado

Estratégia de Segurança em Primeiro Lugar da Anthropic

Em um evento de entrevista da WIRED, a presidente e co-fundadora da Anthropic, Daniela Amodei, enfatizou que o compromisso da empresa com a segurança e a IA ética não é apenas uma postura moral, mas também uma vantagem no mercado. Ela explicou que a Anthropic tem sido vocal desde o início sobre o "potencial incrível" da IA, e que realizar esse potencial requer gerenciar riscos e tornar a tecnologia confiável.

Adoção Generalizada do Claude

Amodei observou que mais de 300.000 startups, desenvolvedores e empresas usam alguma versão do modelo Claude da Anthropic. Por meio dessas relações, a Anthropic aprendeu que os clientes querem IA que possa realizar tarefas grandiosas enquanto permanece segura e confiável. "Ninguém diz, \'Queremos um produto menos seguro\'", disse ela, comparando a relatórios de segurança da empresa com estudos de crash-test de fabricantes de automóveis.

IA Constitucional e Treinamento Ético

A abordagem de "IA constitucional" da Anthropic treina modelos em um conjunto básico de princípios éticos e documentos que ensinam valores humanos, como aqueles extraídos da Declaração Universal dos Direitos Humanos das Nações Unidas. Esse método ajuda os modelos a responder a consultas não apenas com base na correção factual, mas também em considerações éticas mais amplas.

Retenção e Crescimento de Talentos

De acordo com Amodei, a missão e os valores da empresa atraem talentos que apreciam a discussão honesta sobre os benefícios e riscos da IA. A equipe da Anthropic cresceu de 200 funcionários para mais de 2.000, refletindo uma forte confiança interna apesar do burburinho do mercado sobre uma bolha de IA.

Implicações do Mercado

Amodei argumentou que a indústria está se tornando auto-regulamentada à medida que as empresas constroem fluxos de trabalho em torno de IA que é conhecida por alucinar menos e produzir menos saídas prejudiciais. Ao estabelecer padrões de segurança de facto, a Anthropic ajuda a moldar um mercado onde "você sabe que este produto não alucina tanto", tornando-o uma escolha preferida em relação a concorrentes com pontuações de segurança mais baixas.

Perspectiva Futura

Ela concluiu que os modelos continuam a melhorar ao longo das curvas de escalabilidade observadas por pesquisadores, e a receita segue a mesma trajetória. Embora reconheça a necessidade de humildade, Amodei expressou confiança de que a ênfase da Anthropic na segurança manterá a empresa e o ecossistema de IA mais amplo em um caminho de crescimento positivo.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: