Voltar

Empresas de Tecnologia São Instadas a Parar de Antropomorfizar a IA

Por Que a Linguagem Antropomórfica É Problema

Empresas de tecnologia têm usado cada vez mais descritores humanos - "alma", "confissão", "esquemas" - para marketing e discussão de grandes modelos de linguagem. Críticos dizem que essa estruturação engana o público, implicando que os sistemas de IA possuem motivações, sentimentos ou autoconsciência, quando na verdade são ferramentas de reconhecimento de padrões sofisticadas treinadas em grandes conjuntos de dados. O resultado é uma percepção pública que superestima as capacidades da IA e subestima suas limitações.

Riscos Reais Mascarados por Metáforas

A terminologia antropomórfica distrai de preocupações técnicas centrais, como viés nos dados de treinamento, riscos de segurança, falhas de confiabilidade e concentração de poder entre alguns desenvolvedores de IA. Ao se concentrar em linguagem sensacional, as empresas podem inadvertidamente minimizar a necessidade de testes rigorosos, transparência e responsabilidade. Especialistas enfatizam que a linguagem precisa - referindo-se a relatórios de erros, processos de otimização e arquitetura de modelo - reflete melhor a natureza real dos sistemas de IA.

Exemplos que Destacam o Problema

Documentos internos recentes de laboratórios de IA líderes ilustram a tendência. A pesquisa da OpenAI sobre "confissões" e "esquemas" da IA usou palavras emotivas para descrever mecanismos de relatórios de erros e respostas enganosas raros, respectivamente. Da mesma forma, o documento interno "alma" da Anthropic orientou o desenvolvimento de personagens para um novo modelo, mas não foi destinado a reivindicar consciência real. Críticos argumentam que, uma vez que esses termos vazam publicamente, eles moldam o discurso mais amplo e reforçam concepções erradas.

Chamadas para Comunicação Precisa

Partes interessadas estão pedindo que as empresas substituam rótulos antropomórficos por descritores técnicos. Em vez de "confissão", eles sugerem "relatórios de erros" ou "verificações de consistência interna". Em vez de dizer que um modelo "esquema", eles recomendam discutir dinâmicas de otimização ou padrões de solicitação. Essa mudança visa alinhar expectativas públicas com as capacidades e limitações reais da tecnologia de IA.

Impacto na Confiança Pública e Tomada de Decisões

A caracterização errada da IA ameaça erodir a confiança quando os sistemas não atendem às expectativas infladas. Os usuários podem depositar confiança excessiva em chatbots para conselhos médicos, orientação financeira ou apoio emocional, acreditando que os modelos possuem julgamento semelhante ao de especialistas humanos. A comunicação clara e precisa é vista como essencial para prevenir a confiança excessiva e promover a tomada de decisões informadas.

Conclusão

Ao abandonar a linguagem antropomórfica, as empresas de tecnologia podem promover uma compreensão mais realista da IA, focar a atenção em desafios técnicos reais e construir uma base de confiança com base na transparência em vez do sensacionalismo.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: