Wikipedia lanza guía para detectar contenido generado por IA
La nueva guía de Wikipedia para detectar escritura de IA
En un esfuerzo por mantener la integridad de su vasta enciclopedia, los editores voluntarios de Wikipedia han creado una guía detallada para detectar textos generados por grandes modelos de lenguaje. La guía es un componente central del programa Proyecto Limpieza de IA, que comenzó en 2023 para abordar el creciente volumen de contribuciones asistidas por IA.
La guía identifica varios rasgos recurrentes de la prosa escrita por IA. Uno de los rasgos comunes es el uso de un lenguaje vago y genérico que enfatiza la importancia de un tema sin ofrecer evidencia concreta, como referencias repetidas a un tema que es "fundamental" o parte de un "movimiento más amplio". Otro indicador es la inclusión de detalles minuciosos y a menudo irrelevantes que intentan establecer notoriedad, una táctica que imita las biografías personales en lugar de informes independientes y con fuentes.
Los editores también señalan que el texto generado por IA frecuentemente se basa en construcciones de participio presente que vagamente reclaman relevancia continua —frases como "enfatizando la importancia" o "reflejando la continua relevancia" de una idea. Además, la guía señala una tendencia hacia adjetivos de estilo de marketing, que describen escenas como "pintorescas", "impresionantes" o "modernas", lo que puede hacer que la prosa suene más como un guión comercial que como una entrada de enciclopedia.
Al compilar estas observaciones, Wikipedia busca empoderar a los lectores y contribuyentes para evaluar críticamente el contenido y señalarizar el material potencialmente autorizado por IA. El proyecto refleja un compromiso más amplio dentro de la comunidad de Wikipedia para salvaguardar la calidad y verificabilidad de la información en una era de modelos de lenguaje cada vez más sofisticados.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas