Los comisionados de privacidad de Canadá dicen que OpenAI violó las leyes federales y provinciales de datos
El comisionado de privacidad de Canadá, Philippe Dufresne, anunció que OpenAI violó las leyes federales y provinciales de privacidad durante el desarrollo de sus modelos de inteligencia artificial. La conclusión sigue a una investigación conjunta con reguladores de privacidad en Alberta, Quebec y Columbia Británica, que identificó un patrón de prácticas de recopilación de datos que violaban la Ley de Protección de la Información Personal y Documentos Electrónicos (PIPEDA) y estatutos provinciales comparables.
Los comisionados dijeron que OpenAI recopiló "grandes cantidades de información personal sin salvaguardias adecuadas" y no obtuvo consentimiento antes de utilizar esos datos para el entrenamiento de modelos. Aunque ChatGPT muestra un aviso que indica que las interacciones pueden ser utilizadas para el entrenamiento, los reguladores señalaron que OpenAI también se basó en conjuntos de datos de terceros - recopilados o comprados en Internet - que contienen detalles personales que muchas personas no sabían que estaban siendo recopilados.
Otro punto de contention es la falta de control del usuario. Los comisionados señalaron que los usuarios de ChatGPT no pueden acceder, corregir o eliminar los datos personales que pueden haber sido incorporados en la base de conocimientos del sistema. Además, la agencia criticó los "intentos poco entusiastas" de OpenAI para reconocer y corregir respuestas inexactas generadas por el modelo.
Las reformas prometidas por OpenAI
OpenAI, que los comisionados describieron como "abierto y receptivo", se ha comprometido a tomar una serie de medidas correctivas. La empresa ya ha retirado versiones anteriores de modelos que la investigación consideró no conformes. Ahora emplea una herramienta de filtrado diseñada para detectar y enmascarar identificadores personales - como nombres y números de teléfono - en datos de Internet accesibles públicamente y conjuntos de datos con licencia utilizados para el entrenamiento.
Dentro de tres meses, OpenAI agregará un nuevo aviso a la versión sin firma de ChatGPT que advierta a los usuarios que sus conversaciones pueden ser utilizadas para el entrenamiento y les aconseje no compartir información sensible. Dentro de seis meses, la empresa simplificará sus herramientas de exportación de datos y aclarará cómo los usuarios pueden cuestionar la exactitud de la información que proporciona ChatGPT. La empresa también se ha comprometido a confirmar a los comisionados de privacidad que los conjuntos de datos retirados están protegidos contra su uso en el desarrollo futuro.
Las salvaguardias adicionales incluyen la prueba de medidas de protección para parientes menores de personajes públicos, asegurando que el modelo deniegue solicitudes de divulgación de sus detalles personales. Estos pasos tienen como objetivo abordar las preocupaciones de los comisionados sobre la exposición involuntaria de datos privados.
La investigación de privacidad, iniciada en 2023, ganó urgencia renovada después del tiroteo masivo en Tumbler Ridge, Columbia Británica, en febrero de 2026. OpenAI había señalado la cuenta del presunto tirador en 2025 por contener amenazas violentas, pero no había remitido la advertencia a las agencias de aplicación de la ley canadienses. Los reguladores posteriormente exigieron protocolos de seguridad más fuertes, y OpenAI acordó colaborar más estrechamente con las agencias de aplicación de la ley y salud en el futuro.
Aunque los comisionados reconocieron la cooperación de OpenAI, enfatizaron que el cumplimiento de la legislación de privacidad será una "obligación continua". La agencia planea monitorear la implementación de las medidas acordadas por la empresa y emitirá informes de seguimiento según sea necesario.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas