Sam Altman advierte que la IA hace que las redes sociales se sientan falsas mientras promueve un dispositivo de verificación humana
La observación de Altman sobre las redes sociales impulsadas por la IA
Sam Altman, el director ejecutivo de OpenAI, compartió su percepción de que los sitios de redes sociales se han vuelto cada vez más artificiales debido a la proliferación de salidas de grandes modelos de lenguaje. Explicó que la experiencia de lectura típica ahora se siente "muy falsa", ya que los usuarios luchan por distinguir entre publicaciones genuinas de humanos y aquellas generadas por inteligencia artificial. Altman señaló que el fenómeno no se limita a unas pocas plataformas; abarca múltiples sitios donde el contenido creado por la IA ahora compete con las contribuciones auténticas de los usuarios.
Factores que contribuyen a la sensación de "falsedad"
Según Altman, varios dinamismos están en juego. Los usuarios reales han comenzado a adoptar las peculiaridades lingüísticas de la IA, lo que lleva a una convergencia de estilo que borra la línea entre la expresión humana y la de la máquina. Además, las comunidades en línea muy comprometidas tienden a reforzar los comportamientos de los demás, amplificando los patrones inspirados en la IA. La presión competitiva sobre las plataformas para maximizar el compromiso también fomenta la circulación de contenido optimizado para los clics en lugar de la autenticidad.
El papel de Altman en la dirección del problema
Mientras destacaba los desafíos, Altman también hizo referencia a su participación en una iniciativa de hardware diseñada para verificar la presencia humana en Internet. El dispositivo, comercializado con el nombre de Orb Mini, tiene como objetivo confirmar que un usuario es una persona real antes de otorgar acceso a los servicios en línea. Altman sugirió que la adopción generalizada de dicha verificación podría ayudar a restaurar la confianza en la autenticidad de las interacciones sociales.
Impacto potencial de la verificación humana
Si se implementa ampliamente, la tecnología de verificación podría servir como una contramedida para la inundación de publicaciones generadas por la IA que actualmente erosionan la confianza en las plataformas sociales. Al requerir una prueba física de humanidad, el sistema haría que fuera más difícil para las cuentas automatizadas hacerse pasar por usuarios reales, reduciendo así la prevalencia de contenido engañoso.
Implicaciones más amplias
Los comentarios de Altman reflejan una tensión entre el rápido avance de la IA generativa y la necesidad social de una comunicación genuina. Su enfoque dual —elevar la conciencia sobre el problema mientras promueve una solución tecnológica— subraya el complejo papel que los líderes de la IA desempeñan en la configuración de las capacidades de la tecnología y las políticas que gobiernan su uso. La conversación apunta a un debate emergente sobre cómo equilibrar la innovación con salvaguardias que preserven la integridad del discurso en línea.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas