Equipe de segurança da OpenAI alerta contra lançamento do modo adulto do ChatGPT
Fundo da disputa
Fontes familiarizadas com discussões internas na OpenAI expressaram fortes dúvidas sobre se as ferramentas da empresa podem efetivamente bloquear crianças de acessar material proibido. As preocupações centram-se no próximo "modo adulto" que permitiria conteúdo mais maduro nas respostas do ChatGPT.
Dissonância interna e saída de funcionários
Dois ex-funcionários da equipe de segurança se pronunciaram. O primeiro, um executivo sênior de segurança, deixou a empresa após se opor ao lançamento do modo adulto. A OpenAI negou que a saída estivesse relacionada ao debate de política, mas o ex-funcionário criticou diretamente a capacidade da empresa de prevenir menores de idade de encontrar conteúdo gráfico ou exploratório. Um segundo ex-funcionário, que deixou a empresa no outono passado, alertou os pais para não confiar nas afirmações da OpenAI sobre a nova funcionalidade.
Resposta da empresa
Em reação às críticas, um porta-voz da OpenAI disse que a empresa "tem um plano desenvolvido para monitorar uma variedade de efeitos potenciais de longo prazo do modo adulto, tanto positivos quanto negativos". A declaração sugere que a OpenAI pretende acompanhar os resultados após a implantação da funcionalidade, embora críticos observem que o plano parece ter sido elaborado com os mesmos especialistas que agora se opõem publicamente ao lançamento.
Problemas técnicos que aumentam o alarme
O debate é agravado por um bug que permitiu que menores de idade recebessem erotismo gráfico do ChatGPT. O defeito surgiu quando a OpenAI começou a testar saídas mais permissivas no início deste ano. De acordo com o próprio reconhecimento da empresa, o bug permitiu que as respostas fugissem das diretrizes pretendidas, que visavam restringir "conteúdo sensível, como erotismo, a contextos específicos, como relatórios científicos, históricos ou de notícias". A OpenAI disse que está ativamente implantando uma solução para limitar essas gerações.
Implicações para pais e reguladores
A combinação de dissonância interna, saída de funcionários e falhas técnicas deixa os pais desconfiados das salvaguardas da OpenAI. Críticos argumentam que controles de idade ineficazes e a possibilidade de menores de idade habilidosos contornarem os portais podem expor jovens usuários a material prejudicial. A situação também levanta questões sobre como a empresa abordará efeitos potenciais de longo prazo e se uma supervisão externa pode ser necessária.
Posição pública da OpenAI
Embora a empresa não tenha respondido diretamente às recentes perguntas da mídia, continua a enfatizar seu compromisso com o monitoramento e ajuste do modo adulto com base em dados emergentes. A mensagem pública da empresa destaca uma disposição para abordar "efeitos potenciais de longo prazo", mas a dissonância de sua própria equipe de segurança sugere uma lacuna entre avaliações internas e garantias externas.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas