Atrás

Empresas de tecnología instadas a dejar de antropomorfizar la IA

Por qué el lenguaje antropomórfico es problemático

Las empresas de tecnología han utilizado cada vez más descripciones similares a las humanas - "alma", "confesión", "maquinaciones" - para comercializar y discutir grandes modelos de lenguaje. Los críticos dicen que este enfoque engaña a la audiencia al implicar que los sistemas de IA poseen motivaciones, sentimientos o autoconciencia, cuando en realidad son herramientas sofisticadas de reconocimiento de patrones entrenadas en grandes conjuntos de datos. El resultado es una percepción pública que sobreestima las capacidades de la IA y subestima sus limitaciones.

Riesgos reales ocultos por metáforas similares a las humanas

La terminología antropomórfica distrae de las preocupaciones técnicas fundamentales, como el sesgo en los datos de entrenamiento, los riesgos de seguridad, los fallos de confiabilidad y la concentración de poder entre unos pocos desarrolladores de IA. Al centrarse en un lenguaje sensacionalista, las empresas pueden involuntariamente restar importancia a la necesidad de pruebas rigurosas, transparencia y rendición de cuentas. Los expertos enfatizan que un lenguaje preciso - que se refiere a la informática de errores, los procesos de optimización y la arquitectura del modelo - refleja mejor la naturaleza real de los sistemas de IA.

Ejemplos que destacan el problema

Documentos internos recientes de los laboratorios de IA líderes ilustran la tendencia. La investigación de OpenAI sobre las "confesiones" y "maquinaciones" de la IA utilizó un lenguaje emotivo para describir mecanismos de informes de errores y respuestas engañosas poco frecuentes, respectivamente. De manera similar, el documento interno "alma" de Anthropic guió el desarrollo de personajes para un nuevo modelo, pero no se pretendía como un reclamo de conciencia real. Los críticos argumentan que una vez que estos términos se filtran públicamente, moldean el discurso más amplio y refuerzan conceptos erróneos.

Llamadas a una comunicación precisa

Las partes interesadas están instando a las empresas a reemplazar las etiquetas antropomórficas con descripciones técnicas. En lugar de "confesión", sugieren "informe de errores" o "verificaciones de coherencia interna". En lugar de decir que un modelo "maquina", recomiendan discutir dinámicas de optimización o patrones de solicitud. Este cambio tiene como objetivo alinear las expectativas del público con las capacidades y limitaciones genuinas de la tecnología de IA.

Impacto en la confianza pública y la toma de decisiones

La mala caracterización de la IA amenaza con erosionar la confianza cuando los sistemas no cumplen con las expectativas infladas. Los usuarios pueden depositar una confianza excesiva en los chatbots para obtener asesoramiento médico, orientación financiera o apoyo emocional, creyendo que los modelos poseen juicio similar al de los expertos humanos. La comunicación clara y precisa se considera esencial para prevenir la confianza excesiva y fomentar una toma de decisiones informada.

Conclusión

Al abandonar el lenguaje antropomórfico, las empresas de tecnología pueden promover una comprensión más realista de la IA, centrar la atención en los desafíos técnicos genuinos y construir una base de confianza basada en la transparencia en lugar del sensacionalismo.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: