Atrás

Hackers se resisten a los posts de IA en foros clandestinos

Los foros de cibercrimen que antes prosperaban en el intercambio humano a humano ahora luchan con un nuevo irritante: la inteligencia artificial generativa. Un estudio conjunto de investigadores de la Universidad de Edimburgo, la Universidad de Cambridge y la Universidad de Strathclyde examinó casi 98,000 posts relacionados con IA en mercados y tableros de discusión clandestinos desde el lanzamiento de ChatGPT a finales de 2022 hasta finales de 2023. El análisis reveló un flujo constante de quejas de los miembros de los foros que sentían que el contenido generado por IA reducía la calidad del discurso y amenazaba sus reputaciones.

"La gente no lo quiere", dijo Ben Collier, un profesor senior de investigación de seguridad en Edimburgo, refiriéndose al tono de decenas de posts que exigían explícitamente el fin de las explicaciones impulsadas por IA. En Hack Forums, un espacio bien conocido para entusiastas de la piratería, los usuarios publicaron mensajes como "Dejen de publicar mierda de IA" y lamentaron que los recién llegados estaban utilizando IA para producir tutoriales básicos sin esfuerzo. El sentimiento se repitió en múltiples plataformas de origen ruso, donde los estafadores y los script-kiddies experimentados confían en puntajes de reputación para asegurar tratos y comerciar con datos robados.

Los investigadores rastrearon el auge de la charla de IA al hype más amplio que rodea a los grandes modelos de lenguaje. Al comienzo del lanzamiento de ChatGPT, muchos actores de bajo nivel experimentaron con IA para automatizar tareas mundanas: redactar scripts de phishing, traducir mensajes de ingeniería social o generar fragmentos de código. Si bien algunos elogiaron las ganancias de eficiencia, una facción en crecimiento se mostró escéptica, argumentando que la dependencia de IA diluía la cultura basada en habilidades que subyace a estas comunidades.

Flashpoint, una empresa de inteligencia cibernética, observó una tendencia paralela. Sus analistas notaron que los actores de amenaza más sofisticados ya estaban sorteando los guardrails construidos en los modelos comerciales, pero seguían siendo cautelosos con los mercados cargados de IA. "Hay debilidades y vulnerabilidades, sometimes exponiendo la infraestructura subyacente", dijo Ian Gray, vicepresidente de inteligencia de Flashpoint, describiendo el posible desenlace de la integración de IA sin control.

El estudio encontró que el impacto de IA en la economía clandestina fue desigual. No ha reducido dramáticamente la barrera de entrada para ataques complejos, ni ha trastornado los modelos de negocio establecidos. En cambio, IA parece haber acelerado esquemas ya automatizados, como el fraude de SEO, los bots de redes sociales y los estafas de romance. En esas nichos, el contenido generado por IA puede escalarse rápidamente, inundando internet con spam de bajo costo y alto volumen.

A pesar de la irritación, una minoría de miembros de los foros expresó una visión matizada. Algunos sugirieron que un asistente de IA podría ayudar a pulir la gramática o estructurar posts, trazando una línea en las presentaciones completamente automatizadas. "Un generador de posts de IA convertiría esto en un foro de chatarra de IA hablando entre sí", advirtió un usuario, subrayando el deseo de preservar la interacción humana como el valor central de estos espacios.

Flashpoint también informó discusiones sobre un "mercado de cibercrimen mejorado con IA", una propuesta para racionalizar la venta de credenciales robadas utilizando la coincidencia impulsada por IA. La idea despertó una oposición feroz, con un posteador que la calificó de "una idea estúpida para poner IA en su mercado". El rechazo destaca un choque cultural más amplio: los actores clandestinos valoran la percepción de la experiencia y temen que IA pueda erosionar el misterio que alimenta sus reputaciones ilícitas.

En general, la investigación pinta un cuadro de una comunidad en transición. Si bien las herramientas de IA ofrecen una conveniencia innegable, el tejido social de los foros de piratería —construido sobre la confianza, la reputación y un sentido de camaradería— se resiste a la automatización total. Los hallazgos sugieren que cualquier integración futura de IA en los ecosistemas de cibercrimen tendrá que contender con una audiencia cautelosa que prefiere la ingenuidad humana sobre los atajos generados por máquina.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: