Pesquisadores da Universidade de Tianjin e da Universidade Chinesa de Hong Kong descobriram que, embora os ouvintes frequentemente não consigam distinguir conscientemente a fala humana real da fala sintética de IA, seus cérebros começam a identificar diferenças acústicas sutis após uma breve exposição. Usando capacetes de EEG, o estudo revelou respostas neurais precoces que separam a fala real e a fala de IA dentro de milissegundos, destacando uma lacuna entre a percepção inconsciente e a tomada de decisão consciente.
Leia mais →