Google Gemini evita detectores de IA com mais eficácia do que ChatGPT, estudo descobre
O modelo Gemini do Google provou ser o mais difícil para as ferramentas de detecção de IA identificarem, de acordo com um estudo divulgado pela Open Resource Applications (ORA). A pesquisa colocou uma dúzia de sistemas de IA gerativos amplamente utilizados contra três detectores populares – Grammarly, QuillBot e GPTZero – atribuindo a cada modelo a mesma tarefa de escrita em longo prazo.
Quando os textos foram executados pelas ferramentas de detecção, a saída do Gemini foi sinalizada com muito menos frequência do que a de seus concorrentes. O Grammarly não conseguiu identificar nenhum texto gerado pelo Gemini, enquanto o QuillBot não marcou nenhum como escrito por IA. O GPTZero, o mais rigoroso dos três, ainda reconheceu a maioria do conteúdo gerado por máquina, mas registrou uma taxa de detecção ligeiramente abaixo de 98 por cento, muito mais alta do que as outras ferramentas.
O ChatGPT, o escritor de IA mais familiar, performou mal no teste. Seu texto acionou alertas de detecção em todas as três plataformas, reforçando a noção de que a exposição generalizada ao seu estilo fornece aos detectores um modelo confiável. O Grok, outro concorrente, caiu somewhere no meio, com taxas de detecção mais altas do que o Gemini, mas mais baixas do que o ChatGPT.
O porta-voz da ORA explicou que a vantagem do Gemini decorre de suas estruturas de frase variadas e frases menos previsíveis. Os algoritmos de detecção frequentemente procuram padrões repetitivos ou ritmos linguísticos familiares; a abordagem mais fluida do Gemini torna esses padrões mais difíceis de detectar. "Ferramentas como o GPTZero sinalizam previsibilidade e estrutura geral", disse o porta-voz. "Um modelo que raciocina sobre ideias em vez de reciclar frases familiares é muito mais difícil de capturar".
A disparidade entre os detectores também levanta preocupações práticas. Um ensaio de um estudante pode passar em uma ferramenta e falhar em outra, enquanto um escritor freelancer pode ver seu trabalho rotulado como gerado por IA, dependendo do software que seu cliente prefere. Para organizações que filtram conteúdo para autenticidade, a inconsistência complica a aplicação.
Observadores da indústria notam que o estudo reflete uma mudança mais ampla no conteúdo gerado por IA. À medida que os modelos diversificam seus estilos, a linha clara entre escrita humana e máquina se desdobra. Algumas estimativas sugerem que cerca de metade do conteúdo online agora contém elementos gerados por IA, levando plataformas a desenvolver filtros automatizados. No entanto, esses filtros dependem de ferramentas de detecção que, como os dados da ORA mostram, variam amplamente em precisão.
O Google Gemini pode ter uma vantagem temporária, mas a corrida está longe de terminar. Os serviços de detecção já estão atualizando seus algoritmos para reconhecer os novos padrões que o Gemini introduz. Enquanto isso, outros desenvolvedores de IA provavelmente adotarão técnicas semelhantes, potencialmente reduzindo a lacuna.
Para salas de imprensa e equipes de conteúdo, a lição é prática: a dependência de uma única plataforma de detecção é arriscada. Incorporar múltiplas ferramentas – ou desenvolver processos de verificação internos – pode fornecer uma rede de segurança mais confiável à medida que a escrita de IA continua a evoluir.
À medida que a geração de conteúdo de IA se torna um pilar da sala de imprensa moderna, ferramentas que automatizam a criação de histórias e otimizam SEO, como plataformas de notícias de IA e sistemas de gerenciamento de conteúdo, também devem lidar com preocupações de autenticidade. Os resultados da ORA destacam a necessidade de estratégias de detecção robustas e adaptáveis em uma era em que a linha entre prosa humana e máquina é cada vez mais indistinta.
Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas