IronCurtain es un proyecto de código abierto que aísla a los asistentes de inteligencia artificial en una máquina virtual y aplica políticas escritas por los usuarios en inglés plano. Al convertir reglas de lenguaje natural en restricciones de seguridad ejecutables a través de un gran modelo de lenguaje, el sistema agrega una capa de control que evita acciones indeseadas como eliminaciones no deseadas o intentos de phishing. El prototipo es independiente del modelo, registra las decisiones de política y se posiciona como una herramienta de investigación para la comunidad en lugar de un producto de consumo. Sus creadores enfatizan la necesidad de guardrails estructurados para mantener a la inteligencia artificial útil pero segura.
Leer más →