Geoffrey Hinton trabalhou na gigante de tecnologia e saiu para ter mais liberdade para criticar IA generativa. Antes, já havia abandonado universidade financiada pelo Pentágono por ser contra ‘robôs soldados’

Por O Globo — Rio

Logo após receber o prêmio Nobel de Física de 2024 nesta terça-feira, o britãnico Geoffey Hinton voltou a alertar para os riscos de “consequências ruins” do aprendizado de máquina, “particularmente a ameaça de essas coisas saírem do controle”.

Hinton, que por mais de dez anos trabalhou no Google, deixou a empresa no ano passado para poder falar mais abertamente sobre os riscos da nova fronteira da Inteligência Artificial (IA), a IA generativa, que permite a geração de conteúdos como textos, fotos e imagens, a partir de comandos simples, e hoje é usada em chatbots e ferramentas como o ChatGPT e o Copilot.

Professor da Universidade de Toronto, no Canadá, ele ganhou o Nobel junto com o americano John Hopfield, da Universidade de Princeton (EUA) por “descobertas fundamentais e invenções que permitiram o aprendizado de máquina por meio de redes neurais artificiais”, afirmou a comissão do prêmio nesta manhã.

– Estou pasmo. Eu não fazia ideia de que isso aconteceria – disse ele ao ser contatado por telefone pelo comitê do Nobel, acrescentando que, apesar das críticas aos rumos da IA, “faria tudo de novo”.

O lado negativo

A preocupação de Hinton com o futuro dessa tecnologia é compartilhada por Ellen Moons, membro do comitê do Nobel na Academia Real de Ciências da Suécia. Ela destacou o feito científico das pesquisas dos laureados deste ano, que “usaram conceitos fundamentais da física estatística para projetar redes neurais artificiais que funcionam como memórias associativas e encontram padrões em grandes conjuntos de dados”.

E lembrou que essas técnicas hoje “se tornaram parte de nossas vidas cotidianas, por exemplo, no reconhecimento facial e na tradução de idiomas”. Mas alertou que há também um lado negativo:

– Ebora o aprendizado de máquina tenha enormes benefícios, seu rápido desenvolvimento também levantou preocupações sobre o nosso futuro. Coletivamente, os humanos têm a responsabilidade de usar essa nova tecnologia de forma segura e ética, para o maior benefício da humanidade.

Hinton é um pioneiro da Inteligência Artificial. Em 2012, ao lado de dois estudantes de pós-graduação da Universidade de Toronto, criou uma tecnologia que se tornou a base intelectual para os sistemas de IA. Em maio de 2023, no entanto, ele se juntou a um coro de críticos, que dizem que essas mesmas companhias estão correndo em direção ao perigo por conta de sua campanha agressiva para criar produtos baseados em inteligência artificial generativa.

Saída do Google

Ele deixou seu emprego no Google, onde trabalhou por mais de dez anos, e disse ter tomado essa decisão para falar livremente sobre os riscos da inteligência artificial.

– Eu me consolo com a desculpa habitual: se eu não tivesse feito isso, alguém teria – afirmou Hilton em entrevista ao New York Times pouco depois de deixar o Google. – É difícil ver como você pode impedir que maus atores o usem para coisas ruins – disse na ocasião.

Hinton, que costumava ser chamado de “O poderoso chefão da IA”, é um britânico expatriado no Canadá e acadêmico de longa data, cuja carreira foi impulsionada por suas convicções pessoais sobre o desenvolvimento e uso de IA.

Em 1972, como estudante de pós-graduação na Universidade de Edimburgo, Hinton embarcou em uma ideia chamada rede neural: um sistema matemático que aprende habilidades analisando dados. Na época, poucos pesquisadores acreditaram na ideia. Mas ela se tornou o trabalho de sua vida.

Nos anos 1980, Hinton era um professor de ciência da computação na Carnegie Mellon University, mas deixou a universidade pelo Canadá por se dizer relutante em aceitar o financiamento de fundos do Pentágono. Naquela época, a maior parte das pesquisas em IA nos Estados Unidos era financiada pelo Departamento de Defesa.

Hinton foi profundamente contrário ao uso de inteligência artificial em campos de batalha — o que ele chamou de “robôs soldados”.

Em 2012, Hinton e dois de seus alunos em Toronto, Ilya Sutskever e Alex Krichevsky, construíram uma rede neural que poderia analisar milhares de fotos e aprender a identificar objetos comuns, como flores, cachorros e carros.

Ex-aluno foi para OpenAI

A Google gastou US$ 44 milhões para comprar a companhia fundada por Hilton e seus dois estudantes. O sistema criado por eles levou ao desenvolvimento de tecnologias mais potentes, incluindo chatbots como Chat GPT e Google Bard. Sutskever tornou- se cientista-chefe da OpenAI. Em 2018, Hinton e dois outros colaboradores de longa data receberam o Prêmio Turing, muitas vezes chamado de “Prêmio Nobel da computação”, por seu trabalho em redes neurais.

Por volta do mesmo período, Google, OpenAI e outras companhias começaram a construir redes neurais que aprendem a partir de uma grande quantidade de textos digitais. Hinton avaliou que esse era um jeito poderosos para máquinas entenderem e criar linguagem, mas inferior ao modo como humanos lidam com a linguagem.

Então, no último ano, o Google e a OpenAI construíram sistemas usando uma grande quantidade de dados. Hinton ainda acreditava que esses sistemas eram inferiores à mente humanas em alguns aspectos, mas achava que eles estavam eclipsando a inteligência humana em outros.

-Talvez o que esteja acontecendo nesses sistemas é na verdade bem melhor do que o que acontece no cérebro – afirmou ele na longa entrevista concedida ao New York Times após sair do Google.

Na medida que as companhias melhoraram seus sistemas de inteligência artificial, ele acredita, se tornaram cada vez mais perigosas:

-Olhe como era há cinco anos atrás e como é agora. Pegue a diferença e projete para a frente. É assustador.

Efeitos no mercado de trabalho

Sua preocupação imediata, afirmou na entrevista, era que a internet fosse inundada com fotos, vídeos e textos falsos, e a pessoa comum “não será mais capaz de saber o que é verdade”. Ele também demonstrava preocupação com os efeitos da nova tecnologia no mercado de trabalho. E, no limite, vê mesmo uma ameaça para a humanidade, porque muitas vezes aprendem comportamentos inesperados com a grande quantidade de dados que analisam.

Isso se torna um problema, disse ele, à medida que indivíduos e empresas permitem que sistemas de IA não apenas gerem seu próprio código de computador, mas realmente executem esse código por conta própria.

Ele acrescentou, na entrevista, que vê o risco de um dia sejam criadas armas verdadeiramente autônomas – ou seja, aquele mesmo temor dos robôs assassinos que o afastou da Carnegie Mellon University.

Hinton disse ao NYT que a “ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas” era mais real do que muitos imaginavam:

– E eu pensei que estava longe (essa possibilidade). Eu pensei que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso.

Hinton já se mostrou um cético quanto à possibilidade de uma regulação global para a IA. Ao contrário das armas nucleares, disse ele, não há como saber se empresas ou países estão trabalhando nessa tecnologia em segredo.

Hinton disse que quando as pessoas o perguntavam como ele conseguia trabalhar com tecnologias potencialmente perigosas, ele parafraseava Robert Oppenheimer, que liderou o esforço dos Estados Unidos para construir a bomba atômica: “Quando você vê que algo é tecnicamente bom, vá em frente e faça”. Mas, agora, não pensa mais assim.

Fonte:https://oglobo.globo.com/economia/tecnologia/noticia/2024/10/08/premio-nobel-de-fisica-deixou-o-google-e-hoje-faz-alerta-sobre-os-riscos-da-inteligencia-artificial.ghtml