Figuras importantes no desenvolvimento de sistemas de inteligência artificial, incluindo o CEO da OpenAI, Sam Altman, e o CEO do Google DeepMind, Demis Hassabis, assinaram uma declaração alertando que a tecnologia que estão construindo pode algum dia representar uma ameaça existencial para a humanidade comparável à de uma guerra nuclear e pandemias.

“Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”, diz uma declaração de uma frase, divulgada hoje pelo Center for AI Safety, uma organização sem fins lucrativos.

A ideia de que a IA pode se tornar difícil de controlar e, acidental ou deliberadamente, destruir a humanidade, há muito é debatida pelos filósofos. Mas nos últimos seis meses, após alguns saltos surpreendentes e enervantes no desempenho dos algoritmos de IA, a questão tornou-se muito mais ampla e seriamente discutida.

Além de Altman e Hassabis, o comunicado foi assinado por Dario Amodei, CEO da Anthropic, startup dedicada ao desenvolvimento de IA com foco em segurança. Outros signatários incluem Geoffrey Hinton e Yoshua Bengio – dois dos três acadêmicos premiados com o Prêmio Turing por seu trabalho em aprendizado profundo, a tecnologia que sustenta os avanços modernos em aprendizado de máquina e IA – além de dezenas de empreendedores e pesquisadores trabalhando em IA de ponta. problemas.

“A declaração é uma grande iniciativa”, diz Max Tegmark, professor de física do Massachusetts Institute of Technology e diretor do Future of Life Institute, uma organização sem fins lucrativos focada nos riscos de longo prazo representados pela IA. Em março, o Tegmark’s Institute publicou uma carta pedindo uma pausa de seis meses no desenvolvimento de algoritmos de IA de ponta para que os riscos pudessem ser avaliados. A carta foi assinada por centenas de pesquisadores e executivos de IA, incluindo Elon Musk.

Tegmark diz que espera que a declaração encoraje os governos e o público em geral a levar mais a sério os riscos existenciais da IA. “O resultado ideal é que a ameaça de extinção da IA seja integrada, permitindo que todos a discutam sem medo de zombaria”, acrescenta.

Dan Hendrycks, diretor do Center for AI Safety, comparou o momento atual de preocupação com a IA ao debate entre cientistas provocado pela criação de armas nucleares. “Precisamos ter as conversas que os cientistas nucleares estavam tendo antes da criação da bomba atômica”, disse Hendrycks em uma citação divulgada junto com a declaração de sua organização.

O tom de alarme atual está ligado a vários saltos no desempenho de algoritmos de IA conhecidos como modelos de linguagem grande. Esses modelos consistem em um tipo específico de rede neural artificial que é treinada em enormes quantidades de texto escrito por humanos para prever as palavras que devem seguir uma determinada string. Quando alimentados com dados suficientes e com treinamento adicional na forma de feedback de humanos sobre boas e más respostas, esses modelos de linguagem são capazes de gerar texto e responder a perguntas com notável eloqüência e aparente conhecimento – mesmo que suas respostas sejam muitas vezes repletas de erros.

Esses modelos de linguagem têm se mostrado cada vez mais coerentes e capazes à medida que são alimentados com mais dados e poder computacional. O modelo mais poderoso criado até agora, o GPT-4 da OpenAI, é capaz de resolver problemas complexos, inclusive aqueles que parecem exigir algumas formas de abstração e raciocínio de bom senso.

Os modelos de linguagem foram ficando mais capazes nos últimos anos, mas o lançamento do ChatGPT em novembro passado chamou a atenção do público para o poder – e problemas potenciais – dos mais recentes programas de IA. O ChatGPT e outros chatbots avançados podem manter conversas coerentes e responder a todos os tipos de perguntas com a aparência de compreensão real. Mas esses programas também exibem preconceitos, fabricam fatos e podem ser induzidos a se comportar de maneiras estranhas e desagradáveis.

Geoffrey Hinton, amplamente considerado uma das figuras mais importantes e influentes da IA, deixou seu emprego no Google em abril para falar sobre sua nova preocupação com a perspectiva de uma IA cada vez mais capaz.

Os governos nacionais estão se concentrando cada vez mais nos riscos potenciais apresentados pela IA e em como a tecnologia pode ser regulamentada. Embora os reguladores estejam mais preocupados com questões como desinformação gerada por IA e deslocamento de empregos, tem havido alguma discussão sobre preocupações existenciais.

“Entendemos que as pessoas estão ansiosas sobre como isso pode mudar a maneira como vivemos. Nós também estamos”, disse Sam Altman, CEO da OpenAI, ao Congresso dos EUA no início deste mês. “Se essa tecnologia der errado, pode dar muito errado.”

Nem todo mundo está de acordo com o cenário do juízo final da IA, no entanto. Yann LeCun, que ganhou o Prêmio Turing com Hinton e Bengio pelo desenvolvimento do aprendizado profundo, criticou as alegações apocalípticas sobre os avanços da IA e não assinou a carta até hoje.

Fonte leia mais: https://www.wired.com/story/runaway-ai-extinction-statement/#intcid=_wired-verso-hp-trending_21ea6ccc-2c06-48e0-8aa5-e21be5010868_popular4-1

Deixe um comentário

×