Contenido generado por IA abruma a las redes sociales, planteando preocupaciones sobre autenticidad y confianza
Problema de contenido generado por IA
Las redes sociales han sido criticadas durante mucho tiempo por presentar contenido demasiado pulido y aspiracional. Recientemente, el problema ha empeorado ya que las herramientas generativas de inteligencia artificial, como Sora de OpenAI, Veo de Google y la plataforma de imagen a video Midjourney, permiten a los usuarios producir videos y imágenes realistas desde simples textos. Esta capacidad ha llevado a un aumento de publicaciones de baja calidad generadas por IA, un fenómeno llamado "suciedad de IA". El término captura una avalancha de contenido que va desde videos de animales caprichosos hasta fotos de vacaciones creadas por IA y personajes de influencia completamente fabricados.
Deepfakes y la erosión de la confianza
Junta a la suciedad de IA, la tecnología deepfake ha hecho que sea más fácil crear videos convincentes de figuras públicas diciendo o haciendo cosas que nunca ocurrieron. La difusión de dicho material fabricado desafía la capacidad de los usuarios para discernir entre hecho y ficción. Según un estudio realizado por la firma de medios Raptive, cuando la gente sospecha que un contenido es generado por IA, es menos probable que confíe en él y sienta una conexión emocional más débil. El estudio encontró que casi la mitad de los encuestados veían el contenido creado por IA como menos confiable.
Perspectivas de expertos sobre los cambios en las plataformas
Alexios Mantzarlis, director de la Iniciativa de Seguridad, Confianza y Seguridad de Cornell Tech, observa que las plataformas sociales parecen priorizar mantener a los usuarios comprometidos con la tecnología en sí misma en lugar de fomentar conexiones humanas genuinas. Él nota que las empresas de tecnología están mostrando capacidades de IA para mejorar el desempeño de las acciones, a menudo a expensas de la experiencia del usuario. Mantzarlis advierte que el contenido impulsado por IA puede amplificar los estándares corporales poco realistas y distorsionar aún más la realidad para los espectadores.
Respuesta de la industria y lagunas regulatorias
En respuesta a las crecientes preocupaciones, las principales plataformas han prometido etiquetar el material generado por IA y prohibir publicaciones dañinas, como aquellas que malversan las semejanzas de personas privadas. Sin embargo, el ritmo de la regulación se queda atrás de los rápidos avances de la IA, dejando a las plataformas para hacer cumplir el contenido en gran medida por su cuenta. Paul Bannister, director de estrategia de Raptive, destaca que mientras las herramientas de IA democratizan la creación expandiendo el grupo de posibles creadores, el volumen abrumador de medios generados plantea importantes desafíos de moderación.
Caminos posibles hacia adelante
Los interesados sugieren dar a los usuarios más control sobre la cantidad de contenido de IA que encuentran, citando los filtros de contenido de IA opcionales de Pinterest como un modelo posible. Dichas medidas podrían ayudar a restaurar un grado de autenticidad a las fuentes de alimentación y mitigar la difusión de la desinformación. Hasta que surjan marcos regulatorios más claros, el equilibrio entre fomentar el uso creativo de la IA y preservar la confianza en las redes sociales sigue siendo un frente controvertido.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas