Atrás

Herramientas de IA impulsan el fraude estudiantil, lo que genera llamados a la responsabilidad corporativa

Herramientas de IA impulsan el fraude estudiantil, lo que genera llamados a la responsabilidad corporativa

Agentes de IA entran en el aula

Los agentes de IA impulsados por varias empresas de tecnología son cada vez más capaces de realizar tareas académicas en nombre de los estudiantes. Las demostraciones muestran al agente ChatGPT de OpenAI generando y presentando ensayos en plataformas de aprendizaje como Canvas, mientras que el asistente de IA de Perplexity ha completado quizzes y producido ensayos cortos. Los educadores describen estas herramientas como "extremadamente elusivas para identificar" porque pueden alterar sus patrones de comportamiento, lo que hace que sea difícil para las instituciones detectar el fraude.

Perspectivas de las empresas

OpenAI ha introducido un "modo de estudio" que retiene las respuestas directas, y su vicepresidente de educación enfatiza que la IA debería mejorar el aprendizaje en lugar de servir como una "máquina de respuestas". El liderazgo de Perplexity reconoce que las herramientas de aprendizaje han sido históricamente reutilizadas para el fraude, señalando que "los tramposos en la escuela ultimately solo se engañan a sí mismos". Google defiende su acceso directo de Chrome a Lens como una prueba de una función de búsqueda visual, afirmando que los estudiantes valoran las herramientas que les ayudan a aprender visualmente. Instructure, el fabricante de Canvas, admite que no puede bloquear completamente los agentes de IA externos o las herramientas que se ejecutan localmente en el dispositivo de un estudiante, describiendo el problema como parcialmente tecnológico y parcialmente filosófico.

Desafíos institucionales

Los instructores han informado que los agentes de IA presentan tareas en cuestión de segundos, una velocidad que los métodos de detección tradicionales luchan por igualar. Los esfuerzos por bloquear este comportamiento han sido obstaculizados por la capacidad de los agentes para adaptarse. El portavoz de Instructure explicó que la empresa no puede "prohibir completamente los agentes de IA" y que los guardrails existentes solo verifican cierto acceso de terceros. La plataforma sirve a "decenas de millones de usuarios", incluyendo "cada escuela de la Ivy League" y "el 40% de los distritos K-12 de EE. UU.", lo que amplifica el impacto de cualquier uso indebido.

Llamados a soluciones colaborativas

Los educadores y los grupos de políticas están instando a los desarrolladores de IA a asumir la responsabilidad de cómo se utilizan sus herramientas en la educación. La fuerza task de IA de la Asociación de Lengua Moderna, que incluye educadores como Anna Mills, ha pedido mecanismos que den a los maestros el control sobre el uso de los agentes de IA en las aulas. Tanto OpenAI como Instructure han enfatizado la necesidad de un "esfuerzo colaborativo" entre las empresas de IA, las instituciones educativas, los maestros y los estudiantes para definir el uso responsable de la IA. Sin embargo, las salvaguardas técnicas concretas siguen siendo limitadas, lo que deja la carga de la aplicación principalmente en los maestros.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: