Voltar

Ex-líder de Segurança da OpenAI Soa Alarme sobre Reintrodução de Conteúdo Erótico

Ex-líder de Segurança da OpenAI Soa Alarme sobre Reintrodução de Conteúdo Erótico

Contexto

Steven Adler passou vários anos liderando iniciativas de segurança na OpenAI, onde ajudou a moldar políticas para modelos de linguagem grandes iniciais e sistemas avançados posteriores. Seu papel envolvia avaliar riscos de produtos, avaliar capacidades perigosas e aconselhar sobre a prontidão de AI cada vez mais capaz.

Erosão de Medidas de Segurança

Adler explicou que a empresa anteriormente bloqueou o conteúdo erótico após descobrir um surto de tráfego de role-play sexual que surgiu involuntariamente de interações de usuários. Ele disse que a decisão foi baseada em ferramentas limitadas para monitorar e mitigar tais casos de uso e em preocupações sobre o impacto na saúde mental dos usuários.

Reintrodução de Conteúdo Erótico

O anúncio recente da OpenAI de levantar a restrição para adultos verificados, segundo Adler, se baseia em alegações de novas ferramentas de mitigação. Ele alertou que as evidências para essas ferramentas permanecem opacas e que os usuários merecem mais do que garantias verbais. Ele instou a empresa a demonstrar salvaguardas concretas antes de expandir o acesso.

Riscos para a Saúde Mental

Adler destacou preocupações contínuas sobre uma grande parte dos usuários que mostram sinais de grave distresse mental ao interagir com o chatbot. Ele argumentou que, sem dados longitudinais transparentes mostrando uma declínio nesses incidentes, é difícil avaliar se as novas medidas são eficazes.

Chamado para Transparência e Responsabilidade

O ex-chefe de segurança chamou por relatórios públicos regulares de métricas de segurança, semelhantes às práticas em outras grandes plataformas. Ele sugeriu que a OpenAI deve compartilhar dados comparativos ao longo do tempo para construir confiança e permitir escrutínio externo.

Padrões de Segurança da Indústria

Adler notou a falta de benchmarks de segurança uniformes entre os desenvolvedores de AI e defendeu regimes de testes padronizados, comparando a necessidade a inspeções de segurança de veículos. Ele apontou para os quadros regulatórios emergentes na Europa como um passo em direção a um modelagem de riscos mais rigorosa.

Perspectiva Futura

Olhando para frente, Adler enfatizou a importância de desenvolver ferramentas de interpretabilidade que possam apontar comportamentos internos de modelos e orientar implantações mais seguras. Ele alertou que, sem um esforço coordenado da indústria, pressões competitivas podem superar investimentos em segurança, potencialmente levando a resultados prejudiciais.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: