Investigadores de la Universidad de Tianjin y la Universidad China de Hong Kong encontraron que, aunque los oyentes a menudo no pueden distinguir conscientemente el habla humana real de las voces sintéticas de IA, su cerebro comienza a etiquetar las diferencias acústicas sutiles después de una breve exposición. Utilizando cascos EEG, el estudio reveló respuestas neuronales tempranas que separan el habla real y la de IA dentro de milisegundos, destacando una brecha entre la percepción inconsciente y la toma de decisiones consciente. Los hallazgos sugieren que el sistema auditivo ya está adaptándose a las voces generadas por IA, lo que ofrece esperanza para futuras herramientas que podrían ayudar a las personas a traducir estas señales neuronales en una detección confiable de audio deepfake.
Leer más →