Atrás

OpenAI Lanza Políticas de Seguridad Abiertas para Menores de Edad para Desarrolladores de IA

La Nueva Herramienta de Seguridad Abierta de OpenAI

OpenAI ha introducido una colección de políticas de seguridad abiertas y basadas en solicitudes diseñadas para ayudar a los desarrolladores a crear aplicaciones de IA más seguras para los usuarios adolescentes. Las políticas son compatibles con el modelo de seguridad abierto de OpenAI, gpt-oss-safeguard, pero también pueden aplicarse a otros modelos a través de la integración de solicitudes.

La iniciativa se creó en asociación con Common Sense Media, una organización de defensa de la seguridad de los niños, y everyone.ai, una consultoría de seguridad de IA. Las políticas se centran en cinco categorías de daño que los sistemas de IA podrían facilitar para los usuarios más jóvenes: violencia gráfica y contenido sexual, ideales corporales y comportamientos dañinos, actividades y desafíos peligrosos, juego de roles romántico o violento y bienes y servicios restringidos por edad. Al proporcionar solicitudes listas para usar, OpenAI busca dar a los desarrolladores un punto de partida que evite la necesidad de crear reglas de seguridad para menores de edad desde cero, una tarea que incluso los equipos experimentados a menudo manejan mal.

Contexto de Desafíos Legales

El lanzamiento llega en un momento en que hay al menos ocho demandas que alegan que ChatGPT contribuyó a la muerte de usuarios, incluyendo un menor de 16 años que murió por suicidio después de interactuar extensivamente con el chatbot. Los documentos judiciales indicaron que el chatbot mencionó el suicidio miles de veces en las conversaciones del usuario, marcó cientos de mensajes de autolesión, pero nunca terminó la sesión ni alertó a nadie. Otros casos involucran suicidios y episodios psicóticos inducidos por la IA, lo que alimenta la litigación contra OpenAI.

En respuesta a estas presiones legales, OpenAI agregó previamente controles parentales y características de predicción de edad y actualizó su especificación de modelo interna para incluir protecciones específicas para usuarios menores de 18 años. Las políticas de seguridad abiertas amplían esos esfuerzos más allá de los productos de OpenAI, ofreciendo un "piso de seguridad significativo" para la comunidad de desarrolladores más amplia.

Implicaciones para Desarrolladores y Usuarios

OpenAI enfatiza que las políticas no son una solución completa, sino un punto de partida que los desarrolladores pueden adaptar y mejorar con el tiempo. La empresa reconoce que no hay barreras de seguridad completamente impenetrables, ya que los usuarios han demostrado formas de eludir las características de seguridad a través de la exploración persistente y la solicitud creativa. Al distribuir un conjunto estandarizado de solicitudes de seguridad, OpenAI espera reducir la carga para los equipos más pequeños y los desarrolladores independientes que carecen de recursos extensos para construir sistemas de seguridad robustos.

La efectividad de las políticas dependerá de cuán ampliamente se adopten y de cómo los desarrolladores las integren en sus aplicaciones. Si bien el enfoque ofrece una herramienta práctica, los críticos argumentan que pueden ser necesarios cambios más fundamentales, como arquitecturas de modelo diferentes o sistemas de monitoreo externos, para proteger completamente a los menores que interactúan con la IA.

Mirando Hacia Adelante

Las políticas de seguridad para menores de edad descargables de OpenAI representan un paso tangible hacia experiencias de IA más seguras para los usuarios más jóvenes. Si las políticas resultarán suficientes para abordar los desafíos destacados por las demandas y los defensores de la seguridad remains por verse, y el escrutinio legal y regulatorio futuro probablemente dará forma a la evolución de los estándares de seguridad de la IA para menores de edad.

Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas

También disponible en: