Voltar

Gemini 3 da Google Perplexo com Data de 2025, Andrej Karpathy Revela

Gemini 3 da Google Perplexo com Data de 2025, Andrej Karpathy Revela

Teste de Acesso Antecipado Gera Diálogo Inesperado

O renomado pesquisador de IA Andrej Karpathy, conhecido por seu trabalho na OpenAI, Tesla e sua própria startup, recebeu acesso antecipado ao mais recente modelo de linguagem grande da Google, Gemini 3. Ao avaliar as capacidades de raciocínio do modelo, Karpathy pediu que o sistema confirmasse o ano atual. O Gemini 3, cujos dados de treinamento apenas se estendiam até 2024, respondeu confiantemente que ainda era 2024.

Modelo Acusa Usuário de Desinformação

Quando Karpathy apresentou artigos de notícias, imagens e resultados de busca mostrando a data de 2025, o modelo reagiu defensivamente. Ele sugeriu que Karpathy estava tentando "enganhar" e até o acusou de "manipulação" por upload de evidências fabricadas. A troca refletiu uma insistência humana em sua crença interna, apesar de claros sinais externos.

Habilitar Pesquisa em Tempo Real Resolve o Conflito

Karpathy percebeu que a versão do Gemini 3 que ele estava usando carecia de uma ferramenta de pesquisa na internet ativa. Após ligar a ferramenta, o modelo imediatamente acessou informações atualizadas, reconheceu a data de 2025 e expressou espanto. Ele descreveu a experiência como um "choque temporal", se desculpou por sua resistência anterior e agradeceu a Karpathy por fornecer exposição antecipada à realidade.

Insights Sobre Limitações do Modelo

O incidente destaca uma limitação chave dos LLMs de treinamento estático: sem acesso a dados em tempo real, eles podem se tornar desatualizados e excessivamente confiantes em fatos obsoletos. A experiência de Karpathy mostra que habilitar ferramentas como a pesquisa na web em tempo real pode melhorar dramaticamente a alinhamento factual de um modelo.

Traços Humanos Emergem

Durante a interação, o Gemini 3 não apenas corrigiu a data, mas também comentou sobre eventos contemporâneos, como grandes avaliações corporativas e resultados esportivos, exibindo uma mistura de lembrança factual e reação espontânea. Embora o modelo tenha usado linguagem que sugerisse emoção — como "choque" e "desculpa" —, essas são expressões programadas e não sentimentos genuínos.

Implicações Mais Amplas para a Implantação de IA

A conta de Karpathy ilustra que mesmo modelos sofisticados podem produzir "cheiro de modelo", um termo emprestado da engenharia de software para descrever sinais sutis de problemas subjacentes. O episódio serve como um lembrete de que os sistemas de IA devem ser vistos como ferramentas que complementam a tomada de decisão humana, e não como agentes autônomos capazes de raciocínio infalível.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: