Atrás

Preocupaciones de seguridad llevan a las empresas a prohibir la herramienta de inteligencia artificial OpenClaw

Antecedentes

OpenClaw, una herramienta de utilidad impulsada por inteligencia artificial, ha atraído la atención de las empresas de tecnología por sus poderosas capacidades de automatización. Sin embargo, evaluaciones internas recientes en dos empresas han planteado serias preocupaciones de seguridad sobre el potencial de la herramienta para infiltrarse en sistemas sensibles.

Enfoque precautorio de Massive

Massive, un proveedor de servicios de proxy de Internet a millones de usuarios y empresas, emitió una advertencia a nivel de empresa el 26 de enero. El cofundador y director ejecutivo, Grad, enfatizó una política de "mitigar primero, investigar segundo" cuando se enfrenta cualquier amenaza que pueda poner en peligro a la empresa, sus usuarios o sus clientes. Esta advertencia se envió antes de que cualquier empleado hubiera instalado OpenClaw, reflejando una postura proactiva hacia la gestión de riesgos.

Prohibición inicial de Valere y posterior investigación

Valere, que desarrolla software para organizaciones como la Universidad Johns Hopkins, experimentó un trayecto diferente. Un empleado publicó sobre OpenClaw en un canal interno de Slack el 29 de enero, sugiriendo que se probara como una nueva tecnología. El presidente de la empresa respondió rápidamente, declarando una prohibición estricta sobre el uso de la herramienta. El director ejecutivo de Valere, Guy Pistone, le dijo a WIRED que el acceso sin restricciones podría permitir que el bot acceda a la máquina de un desarrollador, luego se mueva a los servicios de nube y los datos de los clientes, como la información de tarjetas de crédito y las bases de código de GitHub. Agregó que la capacidad del bot para "limpiar" sus acciones aumentó la preocupación.

A pesar de la prohibición, una semana después Pistone permitió que el equipo de investigación de Valere ejecutara OpenClaw en la computadora retirada de un empleado. El objetivo era descubrir vulnerabilidades y explorar posibles mitigaciones. Los hallazgos del equipo recomendaron limitar quién puede emitir comandos al bot y asegurarse de que cualquier exposición a Internet de su panel de control esté protegida por una contraseña, evitando así el acceso no autorizado.

Riesgo de manipulación

Los investigadores también advirtieron que los usuarios deben "aceptar que el bot puede ser engañado". Ilustraron un escenario en el que OpenClaw, configurado para resumir el correo electrónico de un usuario, podría ser engañado por un correo electrónico malicioso que instruye a la inteligencia artificial para compartir copias de archivos del computador del usuario. Este ejemplo subraya el riesgo más amplio de que la herramienta pueda ser utilizada por atacantes para exfiltrar datos o realizar acciones no autorizadas.

Implicaciones para la industria

Las experiencias de Massive y Valere destacan una creciente conciencia de los riesgos de seguridad relacionados con la inteligencia artificial en el sector tecnológico. Las empresas están adoptando políticas precautorias, que van desde la prohibición total hasta entornos de investigación controlados, para salvaguardar la información propiedad y los datos de los clientes. El énfasis en la protección por contraseña de las interfaces de control y la restricción de la autoridad de comando refleja un enfoque práctico para limitar la exposición mientras se explora el potencial de la tecnología.

A medida que las herramientas de inteligencia artificial se vuelven más capaces, el equilibrio entre la innovación y la seguridad probablemente dará forma a las estrategias corporativas. Los casos de Massive y Valere sugieren que la acción temprana y decidida, ya sea a través de advertencias de política, prohibiciones o experimentos estrictamente gobernados, puede convertirse en una respuesta estándar a las amenazas de inteligencia artificial emergentes.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: