La demanda de Musk cuestiona el cambio de OpenAI de la investigación enfocada en la seguridad a la IA impulsada por las ganancias
La demanda de Elon Musk contra OpenAI ingresó a un tribunal federal en Oakland el jueves, acusando al laboratorio de inteligencia artificial de traicionar su promesa fundadora de priorizar la seguridad de la humanidad mientras persigue la inteligencia artificial general. La demanda se centra en si la subsidiaria con fines de lucro de la empresa ha alejado a OpenAI de una cultura de investigación y hacia un modelo centrado en productos que podría poner en peligro las salvaguardias de seguridad.
Rosie Campbell, quien se unió al equipo de preparación para la IA general de OpenAI en 2021 y se fue en 2024, subió al estrado para describir los cambios internos que presenció. Campbell dijo que los primeros días del laboratorio estuvieron dominados por discusiones sobre la IA general y la seguridad, pero con el tiempo "se convirtió más en una organización enfocada en productos". Señaló la disolución de dos grupos orientados a la seguridad: el equipo de preparación para la IA general que lideraba y el equipo de Alineación Superior, ambos disueltos a medida que la empresa cambió recursos hacia implementaciones comerciales.
Un incidente subrayó la tensión. Microsoft implementó una versión del modelo GPT-4 de OpenAI a través de su motor de búsqueda Bing en la India antes de que el modelo recibiera la aprobación de la Junta de Seguridad de Implementación de OpenAI (DSB). Campbell testificó que, si bien el modelo no planteaba un "gran riesgo", el lanzamiento prematuro sentó un peligroso precedente. "Queremos tener buenos procesos de seguridad en lugar y saber que se están siguiendo de manera fiable", dijo, enfatizando la necesidad de fuertes estándares a medida que crecen las capacidades de la IA.
Durante el contrainterrogatorio, Campbell reconoció que la financiación sustancial es esencial para lograr la IA general, pero advirtió que "crear un modelo de computadora superinteligente sin las medidas de seguridad adecuadas... no encajaría con la misión de la organización que originalmente se unió". Sus comentarios se alinean con el marco de seguridad pública de OpenAI, aunque la empresa declinó comentar sobre su estrategia de alineación actual.
El tribunal también escuchó el testimonio de la ex miembro de la junta Tasha McCauley, quien describió un patrón de limitada transparencia del CEO Sam Altman. McCauley relató que Altman no informó a la junta sobre la decisión de lanzar ChatGPT públicamente y ocultó posibles conflictos de intereses. Notó que el mandato sin fines de lucro de la junta para supervisar el brazo con fines de lucro fue "cuestionado", erosionando la confianza en la información proporcionada a los directores.
El breve destitución de Altman en 2023, provocado por la misma controversia de implementación en la India, resurgió en la audiencia. En ese momento, los miembros de la junta, incluidos el entonces científico jefe Ilya Sutskever y la directora de tecnología Mira Murati, expresaron preocupaciones sobre el estilo de gestión de Altman y las prácticas de divulgación. La reversión de la junta, después de que el personal se reuniera en torno a Altman y Microsoft intervino, dejó a los miembros disidentes para renunciar, resaltando aún más las fracturas de gobernanza.
Más allá de OpenAI, el caso plantea preguntas políticas más amplias. McCauley argumentó que los fracasos de gobernanza interna en un laboratorio de IA líder deben provocar una supervisión gubernamental más estricta de los sistemas de IA avanzados, advirtiendo que "si todo se reduce a un solo CEO que toma esas decisiones, y tenemos el bien público en juego, eso es muy subóptimo".
La demanda de Musk, por lo tanto, hace más que apuntar a una sola empresa; cuestiona el equilibrio prevaleciente entre la comercialización rápida y las salvaguardias éticas que muchos creen que deben gobernar el desarrollo de tecnologías de IA transformadoras.
Usado: News Factory APP - descubrimiento de noticias y automatización - ChatGPT para Empresas