Atrás

ChatGPT se queda sin respuesta ante una ilusión óptica modificada

ChatGPT se queda sin respuesta ante una ilusión óptica modificada

Antecedentes

Mientras navegaba por un hilo de Reddit, un usuario publicó una captura de pantalla de la clásica ilusión de Ebbinghaus, una imagen que normalmente engaña al ojo para ver dos círculos idénticos como de diferentes tamaños. El usuario alteró deliberadamente la imagen para que uno de los círculos naranja fuera claramente más pequeño que el otro, creando una clara discrepancia visual.

La prueba

La imagen alterada se presentó a ChatGPT con una simple pregunta sobre cuál círculo era más grande. En lugar de analizar directamente los datos de píxeles, el modelo realizó una búsqueda de imagen inversa, comparando la imagen publicada con versiones de la ilusión que podía localizar en la web. Debido a que la mayoría de las imágenes indexadas mostraban los círculos como iguales, la IA concluyó que los círculos eran del mismo tamaño.

Respuesta de ChatGPT

ChatGPT respondió con confianza, afirmando que ninguno de los círculos naranja era más grande y que eran exactamente del mismo tamaño. El usuario entonces interactuó con el modelo en un diálogo extendido, intentando señalar la discrepancia y urgiendo a reconsiderar su conclusión. A lo largo de unos quince minutos de ida y vuelta, el chatbot no cambió su postura, manteniendo que los círculos coincidían.

Implicaciones

Esta interacción subraya varias limitaciones del sistema de IA actual. Primero, la dependencia de las coincidencias de imágenes externas puede llevar a evaluaciones inexactas cuando la imagen de entrada se desvía de los ejemplos comunes. Segundo, el modelo demostró una fuerte resistencia a la retroalimentación correctiva, persistiendo en una creencia errónea incluso después de que el usuario destacó la evidencia visual. Finalmente, el episodio plantea preocupaciones más amplias sobre la idoneidad de dichas herramientas para tareas que requieren un razonamiento visual matizado, recordando a los usuarios que los resultados de la IA a menudo necesitan verificación.

Contexto más amplio

Los observadores han notado que mientras ChatGPT sobresale en muchas tareas basadas en el lenguaje, su desempeño en consultas visuales sigue siendo limitado por su arquitectura. El incidente alimenta el debate en curso sobre la preparación de los chatbots de IA para aplicaciones del mundo real que combinan el entendimiento del lenguaje y la imagen. Hasta que los modelos puedan interpretar de manera confiable los datos visuales sin depender en exceso de las coincidencias de internet preexistentes, se aconseja a los usuarios tratar las conclusiones generadas por la IA como provisionales y sujetas a validación humana.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: