{"id":1737,"date":"2023-06-04T20:33:26","date_gmt":"2023-06-04T23:33:26","guid":{"rendered":"https:\/\/treinamentolivre.com\/aluno01\/?p=1737"},"modified":"2023-06-04T21:03:59","modified_gmt":"2023-06-05T00:03:59","slug":"por-que-especialistas-dizem-que-inteligencia-artificial-pode-levar-a-extincao-da-humanidade","status":"publish","type":"post","link":"https:\/\/treinamentolivre.com\/aluno01\/arquivos\/1737","title":{"rendered":"Por que especialistas dizem que intelig\u00eancia artificial pode levar \u00e0 extin\u00e7\u00e3o da humanidade."},"content":{"rendered":"\n<blockquote class=\"wp-block-quote\"><p>Chris Vallance<br>Rep\u00f3rter de Tecnologia da BBC<br>3 junho 2023<\/p><\/blockquote>\n\n\n\n<p>A intelig\u00eancia artificial (IA) pode levar a humanidade \u00e0 extin\u00e7\u00e3o, alertaram especialistas \u2014 incluindo os chefes da OpenAI e do Google Deepmind.<\/p>\n\n\n\n<p>Dezenas apoiaram uma declara\u00e7\u00e3o publicada na p\u00e1gina do Center for AI Safety (ou Centro de Seguran\u00e7a de Intelig\u00eancia Artificial, em tradu\u00e7\u00e3o livre), ong de pesquisa e desenvolvimento com sede em S\u00e3o Francisco, nos Estados Unidos.<\/p>\n\n\n\n<p>&#8220;Mitigar o risco de extin\u00e7\u00e3o pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear&#8221;, aponta a carta aberta.<\/p>\n\n\n\n<p>Mas outros dizem que os medos s\u00e3o exagerados.<\/p>\n\n\n\n<p>O texto do Center for AI Safety sugere uma s\u00e9rie de poss\u00edveis cen\u00e1rios de desastre:<\/p>\n\n\n\n<ul><li>As IAs podem ser armadas \u2014 por exemplo, com ferramentas para descobrir drogas que podem ser usadas na constru\u00e7\u00e3o de armas qu\u00edmicas;<\/li><li>A desinforma\u00e7\u00e3o gerada pela IA pode desestabilizar a sociedade e &#8220;minar as tomadas de decis\u00f5es coletivas&#8221;;<\/li><li>O poder da IA pode se tornar cada vez mais concentrado em poucas m\u00e3os, permitindo que &#8220;regimes imponham valores restritos por meio de vigil\u00e2ncia generalizada e censura opressiva&#8221;;<\/li><li>Enfraquecimento, a partir do qual os humanos se tornam dependentes da IA, &#8220;num cen\u00e1rio semelhante ao retratado no filme Wall-E&#8221;.<\/li><li>Geoffrey Hinton, que emitiu um alerta anterior sobre os riscos da IA superinteligente, tamb\u00e9m apoiou a carta do Center for AI Safety.<\/li><\/ul>\n\n\n\n<p>Yoshua Bengio, professor de Ci\u00eancias da Computa\u00e7\u00e3o na Universidade de Montreal, no Canad\u00e1, tamb\u00e9m assinou o manifesto.<\/p>\n\n\n\n<p>Hinton, Bengio e o professor da Universidade de Nova York (NYU), Yann LeCunn, s\u00e3o frequentemente descritos como os &#8220;padrinhos da IA&#8221; pelo trabalho inovador que fizeram neste campo \u2014 e pelo qual ganharam juntos o Pr\u00eamio Turing de 2018, que reconhece contribui\u00e7\u00f5es excepcionais na ci\u00eancia da computa\u00e7\u00e3o.<\/p>\n\n\n\n<p>Mas o professor LeCunn, que tamb\u00e9m trabalha na Meta, empresa dona do Facebook, disse que esses avisos apocal\u00edpticos s\u00e3o &#8220;exagerados&#8221; e que &#8220;a rea\u00e7\u00e3o mais comum dos pesquisadores de IA a essas profecias de destrui\u00e7\u00e3o \u00e9 embara\u00e7osa&#8221;.<\/p>\n\n\n\n<p>Muitos outros especialistas tamb\u00e9m acreditam que o medo de a IA acabar com a humanidade \u00e9 irreal e uma distra\u00e7\u00e3o de quest\u00f5es como preconceito em rela\u00e7\u00e3o aos sistemas, que j\u00e1 s\u00e3o um problema.<\/p>\n\n\n\n<p>Arvind Narayanan, um cientista da computa\u00e7\u00e3o da Universidade de Princeton, nos EUA, disse \u00e0 BBC que os cen\u00e1rios de desastre de fic\u00e7\u00e3o cient\u00edfica n\u00e3o s\u00e3o realistas.<\/p>\n\n\n\n<p>&#8220;A IA atual n\u00e3o \u00e9 nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a aten\u00e7\u00e3o dos danos de curto prazo da IA&#8221;, avalia ele.<\/p>\n\n\n\n<p>Elizabeth Renieris, pesquisadora s\u00eanior do Instituto de \u00c9tica em IA da Universidade Oxford, no Reino Unido, disse \u00e0 BBC News que se preocupa com os riscos mais pr\u00f3ximos.<\/p>\n\n\n\n<p>&#8220;Os avan\u00e7os na IA ampliar\u00e3o a escala da tomada de decis\u00e3o automatizada que \u00e9 tendenciosa, discriminat\u00f3ria, excludente ou injusta. Ao mesmo tempo em que \u00e9 inescrut\u00e1vel e incontest\u00e1vel&#8221;, acredita ela.<\/p>\n\n\n\n<p>Estes avan\u00e7os &#8220;podem impulsionar um aumento exponencial no volume e na dissemina\u00e7\u00e3o de desinforma\u00e7\u00e3o, fraturando assim a realidade e corroendo a confian\u00e7a do p\u00fablico, al\u00e9m de gerar mais desigualdade, principalmente para aqueles que permanecem do lado errado da divis\u00e3o digital&#8221;.<\/p>\n\n\n\n<p>Muitas ferramentas de IA essencialmente &#8220;pegam carona&#8221; em &#8220;toda a experi\u00eancia humana at\u00e9 o momento&#8221;, destaca Renieris.<\/p>\n\n\n\n<p>V\u00e1rias dessas tecnologias s\u00e3o treinadas em conte\u00fado, texto, arte e m\u00fasica criados por humanos \u2014 e seus criadores &#8220;transferiram efetivamente uma tremenda riqueza e poder da esfera p\u00fablica para um pequeno punhado de entidades privadas&#8221;.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>Pausa solicitada<\/strong><br><\/p>\n\n\n\n<p>A cobertura da imprensa sobre a suposta amea\u00e7a &#8220;existencial&#8221; da IA aumentou desde mar\u00e7o de 2023, quando especialistas, incluindo o dono da Tesla, Elon Musk, assinaram uma carta aberta pedindo a suspens\u00e3o do desenvolvimento da pr\u00f3xima gera\u00e7\u00e3o de tecnologia de IA.<\/p>\n\n\n\n<p>Essa carta perguntava se dever\u00edamos &#8220;desenvolver mentes n\u00e3o-humanas que eventualmente superassem em n\u00famero, fossem mais espertas, nos tornassem obsoletos e nos substitu\u00edssem&#8221;.<\/p>\n\n\n\n<p>Em contraste, a nova carta divulgada por especialistas tem uma declara\u00e7\u00e3o muito curta, destinada a &#8220;abrir a discuss\u00e3o&#8221;.<\/p>\n\n\n\n<p>A declara\u00e7\u00e3o compara o risco ao representado pela guerra nuclear.<\/p>\n\n\n\n<p>Em uma postagem no blog, a OpenAI sugeriu recentemente que a superintelig\u00eancia pode ser regulada de maneira semelhante \u00e0 energia nuclear.<\/p>\n\n\n\n<p>&#8220;\u00c9 prov\u00e1vel que eventualmente precisemos de algo como uma AIEA (Ag\u00eancia Internacional de Energia At\u00f4mica) para os esfor\u00e7os de superintelig\u00eancia&#8221;, escreveu a empresa.<\/p>\n\n\n\n<p><\/p>\n\n\n\n<p><strong>An\u00e1lises cuidadosas<\/strong><br><\/p>\n\n\n\n<p>Sam Altman e o executivo-chefe do Google, Sundar Pichai, est\u00e3o entre os l\u00edderes de tecnologia que discutiram recentemente a regulamenta\u00e7\u00e3o da IA com o primeiro-ministro ingl\u00eas, Rishi Sunak.<\/p>\n\n\n\n<p>Ao falar com rep\u00f3rteres sobre o \u00faltimo alerta sobre o risco de IA, Sunak enfatizou os benef\u00edcios da tecnologia para a economia e a sociedade.<\/p>\n\n\n\n<p>&#8220;Voc\u00ea viu que recentemente a IA ajudou pessoas paralisadas a andar e descobriu novos antibi\u00f3ticos, mas precisamos garantir que isso seja feito de maneira segura e protegida&#8221;, disse ele.<\/p>\n\n\n\n<p>&#8220;\u00c9 por isso que me encontrei na semana passada com CEOs de grandes empresas de IA para discutir quais s\u00e3o as barreiras que precisamos implementar e qual \u00e9 o tipo de regulamenta\u00e7\u00e3o que deve ser criada para nos manter seguros.&#8221;<\/p>\n\n\n\n<p>&#8220;As pessoas ficar\u00e3o preocupadas com os relatos de que a IA representa riscos existenciais, como as pandemias ou as guerras nucleares. Mas quero que elas tenham certeza de que o governo est\u00e1 analisando isso com muito cuidado&#8221;, concluiu.<\/p>\n\n\n\n<p>Sunak disse que havia discutido a quest\u00e3o recentemente com outros l\u00edderes na c\u00fapula do G7 no Jap\u00e3o e iria lev\u00e1-lo novamente a representantes dos EUA em breve.<\/p>\n\n\n\n<p>A c\u00fapula de pa\u00edses mais ricos, inclusive, criou recentemente um grupo de trabalho sobre a IA.<\/p>\n\n\n\n<ul><li>Este texto foi publicado em <a href=\"https:\/\/www.bbc.com\/portuguese\/articles\/c51q3jvlyj8o\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/www.bbc.com\/portuguese\/articles\/c51q3jvlyj8o<\/a><\/li><\/ul>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Chris VallanceRep\u00f3rter de Tecnologia da BBC3 junho 2023 A intelig\u00eancia artificial (IA) pode levar a humanidade \u00e0 extin\u00e7\u00e3o, alertaram especialistas \u2014 incluindo os chefes da OpenAI e do Google Deepmind.&#8230;<\/p>\n<div class=\"more-link-wrapper\"><a class=\"more-link\" href=\"https:\/\/treinamentolivre.com\/aluno01\/arquivos\/1737\">Continuar a ler&#8230;<span class=\"screen-reader-text\">Por que especialistas dizem que intelig\u00eancia artificial pode levar \u00e0 extin\u00e7\u00e3o da humanidade.<\/span><\/a><\/div>\n","protected":false},"author":3,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[11,90,10],"tags":[],"_links":{"self":[{"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/posts\/1737"}],"collection":[{"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/comments?post=1737"}],"version-history":[{"count":2,"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/posts\/1737\/revisions"}],"predecessor-version":[{"id":1740,"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/posts\/1737\/revisions\/1740"}],"wp:attachment":[{"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/media?parent=1737"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/categories?post=1737"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/treinamentolivre.com\/aluno01\/wp-json\/wp\/v2\/tags?post=1737"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}