Voltar

Mais de 800 Figuras Públicas Pedem Proibição do Desenvolvimento de Superinteligência Artificial

Mais de 800 Figuras Públicas Pedem Proibição do Desenvolvimento de Superinteligência Artificial

Coalizão Ampliada Pedem Moratória sobre Superinteligência Artificial

Em um esforço coordenado reportado pelo Financial Times, mais de 800 figuras públicas assinaram uma declaração pedindo uma proibição ao desenvolvimento de superinteligência artificial. Os signatários incluem uma mistura diversa de indivíduos de tecnologia, entretenimento, militares e políticos. Nomes notáveis mencionados são Steve Wozniak, Príncipe Harry, pesquisador de IA e laureado com o Nobel Geoffrey Hinton, ex-auxiliar de Trump Steve Bannon, ex-presidente do Joint Chiefs of Staff Mike Mullen e o rapper Will.i.am.

O apelo origina-se do Future of Life Institute, uma organização que alertou que os avanços da IA estão se movendo mais rápido do que o público pode compreender. O diretor executivo Anthony Aguirre enfatizou que o público não foi perguntado se a trajetória atual do desenvolvimento da IA está alinhada com os desejos da sociedade.

Exigências Específicas e Racional

A declaração pede uma proibição à criação de sistemas superinteligentes até que um consenso científico amplo confirme que tal tecnologia possa ser construída de forma segura, controlável e com forte apoio público. Os signatários argumentam que a inteligência artificial geral (IAG) — a capacidade das máquinas de raciocinar e realizar tarefas em nível humano — e a superinteligência — desempenho que supera até os melhores especialistas humanos — representam riscos graves para a humanidade se não forem gerenciados adequadamente.

Contexto da Indústria e Reações

Apesar do apelo por uma moratória, as principais empresas de IA continuam a investir pesadamente em novos modelos e na infraestrutura necessária para executá-los. A declaração observa que empresas como a OpenAI estão investindo bilhões em pesquisas e centros de dados. Líderes de tecnologia de alto perfil expressaram otimismo sobre a linha do tempo para a superinteligência: o CEO da Meta, Mark Zuckerberg, descreveu como "em vista", o CEO da X (ex-Twitter), Elon Musk, disse que "está acontecendo em tempo real", e o CEO da OpenAI, Sam Altman, espera que possa chegar até 2030 no máximo. Nenhum desses líderes assinou a declaração.

Chamadas Paralelas para Regulação

A iniciativa segue apelos anteriores da comunidade de IA. Mais de 200 pesquisadores e funcionários públicos, incluindo dez laureados com o Nobel, lançaram um apelo urgente por uma "linha vermelha" contra os riscos da IA, focando em preocupações imediatas como desemprego em massa, impactos climáticos e abusos de direitos humanos. Embora essa carta tenha abordado desafios existentes em vez de superinteligência, ambos os esforços destacam uma crescente inquietude sobre o ritmo e a direção do desenvolvimento da IA.

Implicações e Próximos Passos

A exigência da coalizão destaca uma lacuna crescente entre os avanços rápidos da IA e a prontidão da sociedade para lidar com suas consequências. Ao pedir uma pausa até que os quadros de segurança e governança sejam solidificados, os signatários visam garantir que os futuros sistemas de IA estejam alinhados com os valores públicos e não representem ameaças descontroladas. A declaração adiciona pressão sobre os formuladores de políticas, líderes da indústria e o público em geral para engajar-se em um diálogo transparente sobre o futuro das máquinas inteligentes.

Usado: News Factory APP - descoberta e automação de notícias - ChatGPT para Empresas

Também disponível em: