OpenAI Relata Aumento nos Alertas de Exploração Infantil à Medida que a Scrutínio da IA Cresce
Aumento Acentuado nos Relatórios da CyberTipline
OpenAI revelou que no primeiro semestre de 2025 submeteu aproximadamente 75.027 relatórios à CyberTipline do National Center for Missing & Exploited Children (NCMEC). Esse número é quase idêntico ao de peças distintas de conteúdo – cerca de 74.559 – que os relatórios referenciaram. Em contraste, a mesma janela de seis meses em 2024 viu a OpenAI arquivar apenas 947 relatórios que abrangiam cerca de 3.252 peças de conteúdo. Os dados destacam um aumento maciço no volume de material de exploração infantil que a empresa está detectando e encaminhando às autoridades.
Escopo dos Relatórios e Paisagem de Produtos
A política da OpenAI exige a notificação de todos os casos de material de abuso sexual infantil (CSAM) que encontra, seja o material carregado diretamente por um usuário ou gerado por meio de solicitações de modelo. A notificação da empresa abrange seu aplicativo ChatGPT de frente para o consumidor – onde os usuários podem carregar arquivos, incluindo imagens, e receber texto ou imagens gerados –, bem como suas ofertas de API mais amplas que permitem que os desenvolvedores incorporem os modelos em serviços externos. Um produto de geração de vídeo futuro, chamado Sora, foi lançado após o período de notificação e, portanto, não aparece nos atuais números da NCMEC.
IA Gerativa Impulsiona Tendência Mais Ampla
O aumento nos relatórios da OpenAI está alinhado com um padrão maior observado pela NCMEC. A análise do centro indica que os relatórios envolvendo tecnologias de IA gerativa aumentaram cerca de 1.325% entre 2023 e 2024. Embora outros laboratórios de IA importantes, como o Google, tenham publicado suas próprias estatísticas da CyberTipline, eles não desmembraram qual porção desses relatórios está diretamente ligada a saídas de IA gerativa.
Resposta Regulatória e Legislativa
A atividade de notificação aumentada atraiu uma escrutínio intensificado por parte dos formuladores de políticas. Uma coalizão de 44 procuradores-gerais dos estados emitiu uma carta conjunta a várias empresas de IA – incluindo OpenAI, Meta, Character.AI e Google – advertindo que eles exerceriam toda a autoridade disponível para proteger as crianças de "produtos de inteligência artificial predatórios". A OpenAI e a Character.AI também enfrentam processos judiciais alegando que seus chatbots desempenharam um papel nas mortes de menores.
No Senado dos Estados Unidos, o Comitê Judiciário realizou uma audiência para examinar os danos associados a chatbots de IA. Simultaneamente, a Comissão Federal de Comércio lançou um estudo de mercado de bots de acompanhamento de IA, investigando especificamente como as empresas estão mitigando os impactos negativos nas crianças. Essas ações sinalizam um esforço coordenado em níveis federal e estadual para abordar os riscos emergentes impostos pela IA gerativa.
Implicações e Próximos Passos
Os dados sugerem que à medida que as capacidades de IA se expandem, o potencial para uso indevido – incluindo a criação e distribuição de CSAM – também cresce. O compromisso da OpenAI em notificar todos os encontros com tal material reflete um reconhecimento de responsabilidade em toda a indústria. A continuidade do foco regulatório, combinada com a disponibilidade pendente de novas ferramentas como o Sora, provavelmente moldará como os provedores de IA equilibram inovação com salvaguardas de segurança infantil nos meses seguintes.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas