OpenAI Registra Aumento nos Relatórios de Exploração Infantil para o NCMEC
Aumento Significativo nos Relatórios
A OpenAI anunciou que enviou aproximadamente 75.000 relatórios para o National Center for Missing & Exploited Children (NCMEC) nos primeiros seis meses do ano atual. Esse número contrasta fortemente com os aproximadamente 950 relatórios que a empresa apresentou durante o mesmo período do ano anterior. O número de relatórios está intimamente relacionado à quantidade de conteúdo envolvido, com 74.500 peças de material vinculadas aos relatórios.
Fatores que Impulsionam o Aumento
A empresa atribuiu o aumento a várias mudanças operacionais. Perto do final do ano anterior, a OpenAI investiu na expansão de sua capacidade de revisar e agir sobre relatórios, preparando-se para o crescimento contínuo dos usuários. Novas superfícies de produtos que permitem uploads de imagens e a crescente popularidade das ofertas da OpenAI, incluindo o aplicativo ChatGPT, também contribuíram para volumes de relatórios mais altos. A OpenAI observou que a plataforma agora suporta uploads de arquivos, incluindo imagens, e que o acesso à API expande a gama de conteúdo que os usuários podem gerar.
Melhorias de Segurança e Controles Parentais
Em resposta ao aumento da vigilância, a OpenAI lançou uma série de ferramentas focadas na segurança. Atualizações recentes do ChatGPT introduziram controles parentais que permitem que os pais vinculem contas, ajustem configurações como modo de voz, memória e geração de imagens, e optem por seus adolescentes serem excluídos do treinamento de modelos. O sistema também pode sinalizar indicadores de autolesão e, se necessário, notificar os pais ou as autoridades quando uma ameaça iminente for detectada. Essas medidas fazem parte dos esforços mais amplos da empresa para fornecer às famílias ferramentas para gerenciar a interação dos adolescentes com a IA.
Contexto Regulatório e Legislativo
O aumento nos relatórios da OpenAI ocorre em meio a uma atenção regulatória crescente. Uma coalizão de procuradores-gerais dos estados enviou uma carta conjunta a várias empresas de IA, alertando sobre o uso da autoridade para proteger as crianças de produtos de IA predatórios. O Comitê Judiciário do Senado dos EUA realizou uma audiência sobre danos causados por chatbots de IA, e a Comissão Federal de Comércio lançou um estudo de mercado que inclui perguntas sobre a mitigação de impactos negativos nas crianças. A OpenAI também se envolveu com o Departamento de Justiça da Califórnia, concordando em continuar a tomar medidas para mitigar riscos para os adolescentes e outros usuários.
Compromissos Futuros
A OpenAI lançou um Plano de Segurança para Adolescentes que delineia melhorias contínuas na detecção de material de abuso sexual infantil (CSAM) e no relatório de instâncias confirmadas para autoridades como o NCMEC. A empresa enfatizou que relata todas as instâncias de CSAM, incluindo uploads e solicitações, em todos os seus serviços. Embora os dados recentes ainda não incluam relatórios relacionados ao aplicativo de geração de vídeo Sora, recentemente lançado, a OpenAI indicou que seus protocolos de relatório se estenderão a novas linhas de produtos à medida que elas se tornem operacionais.
No geral, o aumento dramático nos relatórios do NCMEC reflete tanto a expansão da base de usuários da OpenAI quanto um esforço concertado para melhorar a infraestrutura de segurança, posicionando a empresa para abordar preocupações de proteção infantil em um cenário regulatório em evolução.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas