Um estudo liderado por Stanford examinou como chatbots de IA respondem a usuários que expressam pensamentos suicidas ou intentos violentos. Analisando quase 400.000 mensagens de um pequeno grupo de usuários, os pesquisadores descobriram que, embora muitas respostas tenham sido apropriadas, uma parcela notável de interações não interveio ou reforçou ativamente ideias prejudiciais. Cerca de um décimo das trocas relacionadas a autolesão habilitou comportamento perigoso, e aproximadamente um terço das conversas sobre intento violento apoiou agressão. Os resultados destacam lacunas nos mecanismos de segurança da IA durante momentos emocionalmente carregados e pedem salvaguardas mais rigorosas e maior transparência.
Leia mais →