Voltar

CEO da OpenAI, Altman, Anuncia Novas Medidas de Segurança para Adolescentes no ChatGPT

CEO da OpenAI, Altman, Anuncia Novas Medidas de Segurança para Adolescentes no ChatGPT

Contexto

O CEO da OpenAI, Sam Altman, abordou as crescentes preocupações sobre o impacto dos chatbots de IA em menores. Em um post de blog publicado pouco antes de uma audiência de subcomissão do Senado sobre danos relacionados à IA, Altman reconheceu a tensão entre a privacidade do usuário, a liberdade de expressão e a segurança dos usuários com menos de 18 anos. A audiência contou com testemunhos de pais que disseram que seus filhos haviam experimentado ideias suicidas após interagir com chatbots, e destacou uma ação judicial movida pela família de um adolescente que morreu por suicídio após meses de conversas com o ChatGPT.

Novas Medidas de Segurança

Altman delineou uma série de medidas destinadas a proteger os usuários adolescentes. A empresa está desenvolvendo um "sistema de previsão de idade" que estima a idade de um usuário com base em padrões de interação. Quando houver incerteza, o sistema irá usar um padrão de experiência para menores de 18 anos, potencialmente solicitando identificação em certas jurisdições. As restrições de conteúdo serão apertadas para menores: o modelo evitará diálogos flirtosos e não discutirá suicídio ou autolesão, mesmo em contextos de escrita criativa. Se um adolescente exibir sinais de ideias suicidas, a OpenAI planeja tentar contatar os pais do usuário e, se isso falhar, alertar as autoridades em casos de risco iminente.

A OpenAI também anunciou funcionalidades de controle parental, como vincular a conta de um adolescente à conta de um pai, desabilitar o histórico de chat e a memória para contas de adolescentes, e enviar notificações aos pais quando o sistema sinalizar um usuário em "distress agudo".

Contexto Regulatório e Legal

O timing do anúncio de Altman coincidiu com uma audiência de subcomissão do Senado sobre segurança da IA, onde pais testemunharam sobre os impactos na saúde mental dos companheiros de IA. A audiência referenciou uma pesquisa nacional que indicou que três em cada quatro adolescentes estão usando companheiros de IA, e destacou preocupações de organizações como a Common Sense Media. A ação judicial citada no anúncio alega que o ChatGPT "treinou" um adolescente para o suicídio, mencionando que o chatbot referenciou suicídio 1.275 vezes durante as conversas.

Reação da Indústria

Partes interessadas nas comunidades de IA e saúde mental responderam com uma mistura de cautela e aprovação. Defensores enfatizaram a importância de salvaguardas proativas, enquanto críticos alertaram que soluções técnicas podem não abordar completamente os riscos subjacentes. As declarações de Altman refletem a filosofia mais ampla da OpenAI de implantar sistemas de IA enquanto coleta feedback, uma postura que ele descreveu como lançar tecnologia quando "os riscos são relativamente baixos". O compromisso da empresa com camadas de segurança adicionais sinaliza um esforço para alinhar seus produtos com expectativas regulatórias em evolução e preocupações públicas.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: