Chris Vallance
Repórter de Tecnologia da BBC
3 junho 2023
A inteligência artificial (IA) pode levar a humanidade à extinção, alertaram especialistas — incluindo os chefes da OpenAI e do Google Deepmind.
Dezenas apoiaram uma declaração publicada na página do Center for AI Safety (ou Centro de Segurança de Inteligência Artificial, em tradução livre), ong de pesquisa e desenvolvimento com sede em São Francisco, nos Estados Unidos.
“Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, aponta a carta aberta.
Mas outros dizem que os medos são exagerados.
O texto do Center for AI Safety sugere uma série de possíveis cenários de desastre:
- As IAs podem ser armadas — por exemplo, com ferramentas para descobrir drogas que podem ser usadas na construção de armas químicas;
- A desinformação gerada pela IA pode desestabilizar a sociedade e “minar as tomadas de decisões coletivas”;
- O poder da IA pode se tornar cada vez mais concentrado em poucas mãos, permitindo que “regimes imponham valores restritos por meio de vigilância generalizada e censura opressiva”;
- Enfraquecimento, a partir do qual os humanos se tornam dependentes da IA, “num cenário semelhante ao retratado no filme Wall-E”.
- Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, também apoiou a carta do Center for AI Safety.
Yoshua Bengio, professor de Ciências da Computação na Universidade de Montreal, no Canadá, também assinou o manifesto.
Hinton, Bengio e o professor da Universidade de Nova York (NYU), Yann LeCunn, são frequentemente descritos como os “padrinhos da IA” pelo trabalho inovador que fizeram neste campo — e pelo qual ganharam juntos o Prêmio Turing de 2018, que reconhece contribuições excepcionais na ciência da computação.
Mas o professor LeCunn, que também trabalha na Meta, empresa dona do Facebook, disse que esses avisos apocalípticos são “exagerados” e que “a reação mais comum dos pesquisadores de IA a essas profecias de destruição é embaraçosa”.
Muitos outros especialistas também acreditam que o medo de a IA acabar com a humanidade é irreal e uma distração de questões como preconceito em relação aos sistemas, que já são um problema.
Arvind Narayanan, um cientista da computação da Universidade de Princeton, nos EUA, disse à BBC que os cenários de desastre de ficção científica não são realistas.
“A IA atual não é nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA”, avalia ele.
Elizabeth Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade Oxford, no Reino Unido, disse à BBC News que se preocupa com os riscos mais próximos.
“Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é inescrutável e incontestável”, acredita ela.
Estes avanços “podem impulsionar um aumento exponencial no volume e na disseminação de desinformação, fraturando assim a realidade e corroendo a confiança do público, além de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divisão digital”.
Muitas ferramentas de IA essencialmente “pegam carona” em “toda a experiência humana até o momento”, destaca Renieris.
Várias dessas tecnologias são treinadas em conteúdo, texto, arte e música criados por humanos — e seus criadores “transferiram efetivamente uma tremenda riqueza e poder da esfera pública para um pequeno punhado de entidades privadas”.
Pausa solicitada
A cobertura da imprensa sobre a suposta ameaça “existencial” da IA aumentou desde março de 2023, quando especialistas, incluindo o dono da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.
Essa carta perguntava se deveríamos “desenvolver mentes não-humanas que eventualmente superassem em número, fossem mais espertas, nos tornassem obsoletos e nos substituíssem”.
Em contraste, a nova carta divulgada por especialistas tem uma declaração muito curta, destinada a “abrir a discussão”.
A declaração compara o risco ao representado pela guerra nuclear.
Em uma postagem no blog, a OpenAI sugeriu recentemente que a superinteligência pode ser regulada de maneira semelhante à energia nuclear.
“É provável que eventualmente precisemos de algo como uma AIEA (Agência Internacional de Energia Atômica) para os esforços de superinteligência”, escreveu a empresa.
Análises cuidadosas
Sam Altman e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA com o primeiro-ministro inglês, Rishi Sunak.
Ao falar com repórteres sobre o último alerta sobre o risco de IA, Sunak enfatizou os benefícios da tecnologia para a economia e a sociedade.
“Você viu que recentemente a IA ajudou pessoas paralisadas a andar e descobriu novos antibióticos, mas precisamos garantir que isso seja feito de maneira segura e protegida”, disse ele.
“É por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais são as barreiras que precisamos implementar e qual é o tipo de regulamentação que deve ser criada para nos manter seguros.”
“As pessoas ficarão preocupadas com os relatos de que a IA representa riscos existenciais, como as pandemias ou as guerras nucleares. Mas quero que elas tenham certeza de que o governo está analisando isso com muito cuidado”, concluiu.
Sunak disse que havia discutido a questão recentemente com outros líderes na cúpula do G7 no Japão e iria levá-lo novamente a representantes dos EUA em breve.
A cúpula de países mais ricos, inclusive, criou recentemente um grupo de trabalho sobre a IA.
- Este texto foi publicado em https://www.bbc.com/portuguese/articles/c51q3jvlyj8o
Sê o primeiro