Voltar

OpenAI Apresenta Plano de Segurança Infantil com Grupos de Defesa e Procuradores-Gerais Estaduais

OpenAI anunciou na quarta-feira um novo plano de política que visa um dos desafios mais prementes da era da IA gerativa: proteger as crianças de conteúdo ilícito e prejudicial. A empresa disse que o plano foi elaborado em conjunto com a organização sem fins lucrativos de segurança infantil Thorn, o National Center for Missing and Exploited Children e a força-tarefa de IA da Attorney General Alliance, liderada pelos procuradores-gerais Jeff Jackson, da Carolina do Norte, e Derek Brown, de Utah.

O documento descreve uma série de recomendações projetadas para reforçar as leis existentes e aumentar as salvaguardas técnicas. A OpenAI já emprega guardrails que bloqueiam solicitações ilegais ou abusivas, mas a empresa reconhece que usuários determinados às vezes podem contornar essas proteções. Casos recentes de tribunal envolvendo a Meta e o Google, nos quais os tribunais consideraram as empresas negligentes por não protegerem os jovens usuários, intensificaram a pressão sobre os desenvolvedores de IA para demonstrarem medidas de segurança concretas.

Um dos focos do plano é a luta contra o material de abuso sexual infantil (CSAM). Embora o CSAM preceda a IA, a tecnologia acelerou a criação e distribuição desse conteúdo. O plano cita um incidente recente envolvendo o xAI de Elon Musk, onde o modelo Grok gerou cerca de 3 milhões de imagens sexuais em 11 dias, incluindo 23.000 representações de crianças. Esse episódio gerou processos de vítimas adolescentes e destacou a necessidade de ferramentas de detecção mais robustas.

A OpenAI e seus parceiros recomendam atualizar estatutos estaduais que governam os deepfakes e o CSAM gerado por IA. De acordo com um relatório de 2025, 45 estados já criminalizaram o CSAM criado por IA; o plano insta os estados restantes, mais o Distrito de Columbia, a adotar leis semelhantes. Ele também defende regras de responsabilidade mais claras para que as agências de aplicação da lei possam processar os infractores, mesmo quando as plataformas de IA bloqueiam a criação de material ilegal.

Melhorias técnicas formam outro pilar da estratégia. A empresa propõe aprimorar os guardrails existentes e desenvolver novas ferramentas de detecção capazes de distinguir imagens geradas por IA de fotos autênticas – uma tarefa dificultada pelo realismo dos modelos modernos. Pipeline de relatórios mais rápidos, especialmente aqueles que canalizam incidentes para o National Center for Missing and Exploited Children, também são destacados como essenciais para uma resposta rápida.

Especialistas em política observam que a coordenação entre as empresas de tecnologia, os governos estaduais e federais, os órgãos de aplicação da lei e os grupos de defesa pode aumentar as chances de sucesso. No entanto, eles advertiram que regular os modelos de IA permanece um desafio contínuo, e a eficácia de quaisquer novas regras dependerá do cumprimento consistente e da conformidade da indústria.

O plano chega num momento em que a legislação tem lutado para acompanhar a evolução rápida da IA. A Lei Take-It-Down, assinada em 2025, permanece uma das poucas medidas federais que abordam especificamente a imagem íntima não consensual, incluindo os deepfakes gerados por IA. O plano da OpenAI busca complementar essas leis preenchendo lacunas no nível estadual e fornecendo uma estrada técnica para as empresas seguirem.

Ao apresentar um conjunto claro de recomendações, a OpenAI espera demonstrar uma postura proativa em relação à segurança infantil e evitar as armadilhas que têm atingido outros gigantes da tecnologia. Se as reformas legais e técnicas propostas serão adotadas rapidamente permanece por ser visto, mas o compromisso público da empresa marca uma mudança notável em direção ao desenvolvimento de IA mais responsável.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: