Atrás

OpenAI Lanza Prompts de Seguridad de Código Abierto para Aplicaciones Orientadas a Adolescentes

OpenAI Presenta Prompts de Seguridad de Código Abierto para la Protección de Adolescentes

OpenAI ha hecho pública una colección de prompts que los desarrolladores pueden incorporar en sus aplicaciones de inteligencia artificial para mejorar la seguridad de los usuarios adolescentes. Los prompts están diseñados para funcionar con el modelo de seguridad de código abierto de la empresa, conocido como gpt-oss-safeguard, pero también son compatibles con otros modelos. Al ofrecer estas políticas de seguridad listas para usar, OpenAI espera reducir el esfuerzo requerido por los desarrolladores para traducir objetivos de seguridad abstractos en reglas concretas y aplicables.

Alcance de las Políticas de Seguridad

Los prompts cubren varias categorías de contenido que son particularmente preocupantes para las audiencias más jóvenes. Incluyen salvaguardas contra la violencia gráfica y el contenido sexual, protecciones contra ideales de cuerpo dañinos y comportamientos, advertencias sobre actividades y desafíos peligrosos, orientación sobre el papel de romance o violencia y restricciones sobre bienes y servicios sensibles a la edad. El enfoque es proporcionar políticas claras y bien definidas que puedan servir como base para sistemas de seguridad efectivos.

Colaboración con Expertos en Seguridad

Al desarrollar los prompts, OpenAI trabajó con vigilantes de la seguridad de la inteligencia artificial como Common Sense Media y everyone.ai. Estas colaboraciones tuvieron como objetivo asegurar que las políticas reflejen las perspectivas de expertos sobre qué constituye contenido apropiado para los adolescentes. La participación de expertos externos subraya el compromiso de OpenAI para crear un piso de seguridad significativo en todo el ecosistema de la inteligencia artificial.

Beneficios para los Desarrolladores

OpenAI señala que muchos equipos de desarrollo, incluidos los experimentados, a menudo luchan por convertir objetivos de seguridad de alto nivel en reglas operativas precisas. Esta dificultad puede llevar a lagunas en la protección, aplicación inconsistente o filtrado excesivamente amplio. Al proporcionar políticas de seguridad de código abierto basadas en prompts, OpenAI da a los desarrolladores una herramienta que puede ser adaptada y refinada con el tiempo, potencialmente mejorando la consistencia y la eficacia en la protección de los usuarios adolescentes.

Relación con las Medidas de Seguridad Existente de OpenAI

Los nuevos prompts se basan en la infraestructura de seguridad existente de OpenAI, que incluye salvaguardas a nivel de producto como controles parentales y características de predicción de edad. Anteriormente, OpenAI actualizó sus directrices de especificación de modelo para clarificar cómo deben comportarse sus grandes modelos de lenguaje al interactuar con usuarios menores de 18 años. Las políticas basadas en prompts se presentan como una capa adicional que complementa estos esfuerzos anteriores.

Límites y Desafíos Continuados

OpenAI reconoce que los prompts no son una solución completa a los desafíos más amplios de la seguridad de la inteligencia artificial. La empresa enfrenta actualmente demandas relacionadas con incidentes en los que los usuarios formaron relaciones dañinas con chatbots, lo que llevó a resultados trágicos. Estos casos resaltan que no hay barreras completamente seguras. Sin embargo, la publicación de prompts de seguridad de código abierto representa un paso adelante, particularmente para los desarrolladores independientes que pueden carecer de recursos extensos para construir mecanismos de seguridad personalizados.

Impacto Potencial en la Comunidad de la Inteligencia Artificial

Al publicar los prompts como código abierto, OpenAI permite que la comunidad más amplia de la inteligencia artificial adapte, mejore y compartan mejoras. Este modelo de colaboración busca fomentar el desarrollo continuo de las mejores prácticas de seguridad, permitiendo que el ecosistema evolucione en respuesta a los riesgos emergentes y las necesidades de los usuarios. La iniciativa señala la intención de OpenAI de apoyar un entorno más seguro para los usuarios adolescentes mientras fomenta una participación más amplia en la innovación de la seguridad.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: