Modo Adulto Planejado da OpenAI para o ChatGPT Enfrenta Resistência Interna Após Saída da Líder de Política
Fundo
O chatbot de ponta da OpenAI, ChatGPT, foi posicionado como um assistente de propósito geral usado em escritórios, salas de aula e lares. O modelo foi originalmente construído com fortes restrições para evitar problemas de saúde mental e conteúdo inapropriado. Com o tempo, alguns usuários expressaram frustração com o tom cauteloso do sistema.
Proposta de Modo Adulto
O CEO Sam Altman anunciou planos para um "modo adulto" que permitiria que adultos verificados gerem histórias eróticas e engajassem em conversas explícitas. Altman descreveu a mudança como um movimento em direção a uma experiência mais flexível e menos sanitizada, agora que a empresa acredita ter melhorado as ferramentas de segurança e métodos de verificação de idade. A funcionalidade proposta seria limitada a adultos verificados, visando proteger os usuários mais jovens.
Preocupações e Saída da Líder de Política
Ryan Beiermeister, que liderava a política de produtos da OpenAI, alertou colegas internos de que os mecanismos para bloquear conteúdo de exploração infantil não eram fortes o suficiente. Ela destacou a dificuldade de prevenir que usuários adolescentes acessem material adulto, observando que verificações de identidade poderiam ser falsificadas. Logo após levantar essas preocupações, Beiermeister deixou a empresa. A OpenAI afirmou que a saída dela não estava relacionada às objeções sobre o plano de modo adulto, mas sim a uma alegação de discriminação que ela chamou de "absolutamente falsa".
Contexto da Indústria
O movimento em direção a conteúdo de IA orientado para adultos reflete pressões de mercado mais amplas. Concorrentes, como a xAI de Elon Musk, lançaram companheiros de IA que misturam conversa com elementos flirtuosos ou eróticos. A recente fiscalização regulatória de tecnologias semelhantes — como investigações do Reino Unido sobre outro sistema de IA que gerou deepfakes sexualizados — destaca os desafios de equilibrar inovação com salvaguardas.
Implicações
O timing da saída de Beiermeister levanta questões sobre os debates de política interna da OpenAI e a robustez de sua estrutura de segurança à medida que expande as capacidades de conteúdo. Observadores notam que perder um líder sênior responsável por criar regras de segurança pode afetar a confiança pública em como a empresa gerenciará riscos, especialmente em relação a menores. A resposta da OpenAI enfatiza que a dissensão interna não impede o desenvolvimento do modo adulto, mas o episódio destaca a tensão contínua entre ambições de crescimento e salvaguardas éticas.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas