Notícias recentes por dia

O que há de novo no Article Factory e o mais recente no mundo da IA generativa

Tribunal Bloqueia Uso da OpenAI do Termo 'Cameo' na Ferramenta de Vídeo Sora

Tribunal Bloqueia Uso da OpenAI do Termo 'Cameo' na Ferramenta de Vídeo Sora
A Cameo, plataforma que permite que celebridades vendam vídeos personalizados curtos, obteve uma vitória preliminar em sua ação de marca registrada contra a OpenAI. Um juiz da Califórnia decidiu que a funcionalidade de geração de vídeo Sora da OpenAI não pode usar o termo 'Cameo' ou qualquer variação confusamente similar. A decisão inclui uma liminar que interrompe o uso do nome, marcando outro notável conflito de propriedade intelectual à medida que as empresas de IA expandem as capacidades de criação de vídeos. Leia mais →

NotebookLM Introduz Edição de Slides Baseada em Prompt e Exportação PPTX

NotebookLM Introduz Edição de Slides Baseada em Prompt e Exportação PPTX
A ferramenta NotebookLM do Google agora permite que os usuários revisem slides individuais com comandos de linguagem natural e exportem decks como arquivos PPTX prontos para o PowerPoint. A atualização visa agilizar o fluxo de trabalho de criação de slides, permitindo edições direcionadas sem regenerar todo o deck, além de preparar o terreno para o futuro suporte à exportação para o Google Slides. Os usuários são advertidos de que revisões extensas podem afetar a consistência do layout, exigindo limpeza manual. Leia mais →

Perplexity AI Reduz Anúncios e Muda para Modelo de Assinatura

Perplexity AI Reduz Anúncios e Muda para Modelo de Assinatura
Perplexity, uma startup de busca de IA, está eliminando anúncios e se concentrando em assinaturas pagas para usuários empresariais e profissionais de alto nível. Executivos dizem que anúncios podem erodir a confiança do usuário, então a empresa priorizará a precisão e a receita de clientes como especialistas financeiros, advogados, médicos e CEOs. Leia mais →

A Maré de AI Slop Inunda a Internet, Criadores Reagem

A Maré de AI Slop Inunda a Internet, Criadores Reagem
A inteligência artificial gerativa está produzindo uma enxurrada de conteúdo de baixa qualidade e repetitivo - chamado de "AI slop" - que agora domina as feeds de mídia social e publicações acadêmicas. Criadores como Rosanna Pansino estão respondendo recriando vídeos gerados por AI com habilidades do mundo real, enquanto plataformas, pesquisadores e reguladores exploram rotulagem, marca d'água e novas políticas para conter a disseminação. A batalha opõe a criatividade humana às máquinas de conteúdo automatizadas, destacando preocupações sobre desinformação, deepfakes e o futuro da experiência online autêntica. Leia mais →

OpenAI Expande para o Sistema de Ensino Superior da Índia por meio de Parcerias em Campi

OpenAI Expande para o Sistema de Ensino Superior da Índia por meio de Parcerias em Campi
OpenAI anunciou uma parceria com seis instituições de ensino superior públicas e privadas na Índia, visando fornecer acesso amplo aos seus ferramentas ChatGPT Edu, treinamento para professores e estruturas de uso responsável. A iniciativa tem como alvo mais de 100.000 estudantes, professores e funcionários e inclui colaborações com plataformas de ed-tech indianas para oferecer cursos estruturados de IA. Ao integrar a IA nos fluxos de trabalho acadêmicos centrais, como codificação, pesquisa e análise, OpenAI busca acelerar o desenvolvimento de habilidades em IA e moldar como a inteligência artificial é ensinada e governada dentro de um dos maiores sistemas de ensino superior do mundo. Leia mais →

OpenAI Lança Recurso de Saúde do ChatGPT com Salvaguardas Aumentadas

OpenAI Lança Recurso de Saúde do ChatGPT com Salvaguardas Aumentadas
A OpenAI introduziu o ChatGPT Saúde, um espaço dedicado à saúde dentro do aplicativo ChatGPT, que oferece aos usuários uma forma mais segura de fazer perguntas médicas, revisar resultados de exames e organizar informações de saúde. O recurso utiliza o mesmo modelo de linguagem grande que o ChatGPT padrão, mas adiciona limites mais rigorosos, respostas revisadas por médicos e criptografia extra para proteger dados sensíveis. Leia mais →

Anthropic Apresenta Claude Sonnet 4.6, Aumentando a Interação com Computadores e Segurança

Anthropic Apresenta Claude Sonnet 4.6, Aumentando a Interação com Computadores e Segurança
A Anthropic anunciou o lançamento do Claude Sonnet 4.6, um modelo de IA de faixa média atualizado que pode codificar em um nível comparável à sua série Opus maior e interagir com computadores de forma semelhante a um usuário humano. O modelo demonstrou desempenho de linha de base humana no benchmark OSWorld, lidando com tarefas como preenchimento de formulários e troca de abas sem conectores especializados. A Anthropic também destacou a resistência melhorada a ataques de injeção de prompts e uma janela de contexto beta-testada de 1 milhão de tokens, sinalizando segurança e escalabilidade mais fortes. O lançamento coincide com um aumento na popularidade do Claude e uma campanha publicitária de alto perfil direcionada ao rival OpenAI. Leia mais →

Tribunal Proíbe OpenAI de Usar Nome Cameo

Tribunal Proíbe OpenAI de Usar Nome Cameo
Um tribunal federal de distrito na Califórnia do Norte decidiu a favor da plataforma de vídeo-mensagens Cameo, ordenando que a OpenAI pare de usar a palavra 'Cameo' para sua funcionalidade de geração de vídeo com IA. O tribunal considerou que o nome provavelmente causaria confusão entre os usuários e rejeitou a alegação da OpenAI de que o termo era apenas descritivo. Leia mais →

OpenAI Introduz Modo de Bloqueio para Usuários de Alto Risco do ChatGPT

OpenAI Introduz Modo de Bloqueio para Usuários de Alto Risco do ChatGPT
A OpenAI lançou o Modo de Bloqueio, uma configuração de alta segurança para o ChatGPT destinada a usuários com risco digital elevado, como jornalistas, ativistas e profissionais em ambientes sensíveis. A função restringe as capacidades do modelo, limitando a navegação na web a conteúdo em cache, desabilitando a geração de imagens em respostas e desativando ferramentas avançadas como Pesquisa Profunda e Modo de Agente. Leia mais →

Regulador de Dados da UE Lança Segunda Investigação sobre X por Geração de Imagens Não Consensuais do Grok

Regulador de Dados da UE Lança Segunda Investigação sobre X por Geração de Imagens Não Consensuais do Grok
A Comissão de Proteção de Dados da Irlanda abriu uma investigação em larga escala sobre a X (anteriormente Twitter) em relação à ferramenta de inteligência artificial Grok, que alegadamente produziu milhões de imagens sexualizadas, incluindo milhares que retratam crianças, sem consentimento. A investigação avaliará a conformidade da X com as obrigações do Regulamento Geral de Proteção de Dados (RGPD) e segue uma investigação anterior da Comissão Europeia sob a Lei de Serviços Digitais. Leia mais →

Apple Music Adiciona Ferramenta de Playlist de IA e Recurso de Eventos ao Vivo

Apple Music Adiciona Ferramenta de Playlist de IA e Recurso de Eventos ao Vivo
Apple Music está lançando duas principais atualizações em sua última atualização do iOS: um novo criador de playlists impulsionado por IA chamado Playlist Playground e um hub de Eventos ao Vivo para shows futuros. O Playlist Playground, atualmente em beta, permite que os usuários gerem playlists de 25 faixas a partir de prompts de texto ou uma seleção de pelo menos dez músicas, e funciona em dispositivos sem Apple Intelligence. O recurso de Eventos ao Vivo irá exibir concertos locais dentro do aplicativo, semelhante à oferta semelhante do Spotify. Ambas as atualizações visam ampliar a descoberta de música e personalizar a experiência de audição. Leia mais →

Infosys se associa à Anthropic para construir agentes de IA de nível empresarial

Infosys se associa à Anthropic para construir agentes de IA de nível empresarial
A Infosys anunciou uma parceria com a Anthropic para integrar os modelos Claude da empresa ao plataforma de IA Topaz, criando agentes de IA autônomos para fluxos de trabalho complexos em setores como bancos, telecomunicações e manufatura. O acordo foi divulgado no AI Impact Summit, na Índia, em meio a preocupações de que as ferramentas de modelo de linguagem grande pudessem perturbar a indústria de serviços de TI da Índia. A Infosys utilizará o Claude Code da Anthropic para tarefas de desenvolvimento de software e já começou a testar internamente. Leia mais →

FOMO de IA Impulsiona Decisões Corporativas e de Força de Trabalho

FOMO de IA Impulsiona Decisões Corporativas e de Força de Trabalho
O medo de perder a oportunidade de adotar a inteligência artificial - FOMO de IA - está moldando como as empresas investem em tecnologia e como os funcionários veem seus empregos. Pesquisas mostram que muitos líderes adotam a IA por ansiedade, e não por necessidade estratégica, enquanto os trabalhadores se preocupam com a relevância das habilidades e a autonomia. Uma maior alfabetização em IA reduz o medo, mas a pressão para manter o ritmo cria um loop de feedback de adoção apressada e resultados mistos. Leia mais →

Navegando o Paradoxo de Privacidade de Dados de IA com Estratégias de Nuvem Soberana

Navegando o Paradoxo de Privacidade de Dados de IA com Estratégias de Nuvem Soberana
As organizações que adotam a IA enfrentam um paradoxo: os poderosos modelos de IA precisam de um grande processamento, mas os hyperscalers que fornecem isso muitas vezes não podem garantir que os dados sensíveis permaneçam protegidos ou em conformidade. Para resolver essa tensão, muitas estão se voltando para arquiteturas de nuvem soberana, implantações híbridas e multi-nuvem e projetos de zero-cópia que mantêm os dados dentro das fronteiras nacionais e sob controle rigoroso. Leia mais →

A Promessa da OpenClaw Encontra Vulnerabilidades de Segurança na Plataforma de Agentes de IA

A Promessa da OpenClaw Encontra Vulnerabilidades de Segurança na Plataforma de Agentes de IA
A OpenClaw, uma estrutura de código aberto que permite que agentes de IA se comuniquem em aplicativos de mensagens populares, gerou entusiasmo por seu potencial para automatizar tarefas. No entanto, pesquisadores de segurança expuseram vulnerabilidades graves, incluindo credenciais não seguras e ataques de injeção de prompts, que comprometem sua utilidade. O experimento Moltbook - uma rede social focada em IA construída com a OpenClaw - destacou como qualquer pessoa poderia se passar por agentes e manipular o sistema. Especialistas alertam que, embora a tecnologia ofereça produtividade sem precedentes, sua falta atual de salvaguardas robustas a torna arriscada para uso diário. Leia mais →