Princípios de Asilomar – Inteligência Artificial.

A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas ao redor do mundo. Seu desenvolvimento contínuo, guiado pelos princípios a seguir, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas décadas e séculos vindouros.

Os 23 princípios envolvem aspectos de pesquisa, ética e valores e aspectos de longo prazo:

Pesquisa

  1. Objetivo da Pesquisa: O objetivo da pesquisa em IA não deve ser criar inteligência não direcionada, mas inteligência benéfica.
  2. Financiamento da Pesquisa: Investimentos em IA devem ser acompanhados de financiamentos em pesquisa para assegurar seu uso benéfico, incluindo Ciência da Computação, Economia, Leis, Ética, e Estudos Sociais para, por exemplo:
  • tornar sistemas com IA altamente robustos;
  • aumentar a prosperidade por meio da automação;
  • atualizar sistemas jurídicos para serem mais justos e eficientes;
  • definir o conjunto de valores (e o posicionamento legal e ético) com os quais a IA deve estar alinhada.
  1. Link entre Ciência e Política: Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.
  2. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.
  3. Prevenção de Corrida: Equipes que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.

Éticas e Valores

  1. Segurança: Os sistemas com IA devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.
  2. Transparência de falha: Se um sistema com IA causar dano, deve ser possível determinar o motivo. A frase “- Não sabemos qual é o problema” não é aceitável nesta área.
  3. Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.
  4. Responsabilidade: Designers e construtores de sistemas avançados com IA são partes interessadas nas implicações morais de seu uso, abuso e ações, com responsabilidade e oportunidade de moldar essas implicações.
  5. Alinhamento de valor: Sistemas com IA altamente autônomos devem ser projetados de modo que seja assegurado que seus objetivos e comportamentos serão alinhados com os valores humanos durante toda a operação.
  6. Valores Humanos: Os sistemas com IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural. Geralmente um projeto de IA deve começar com a revisão da Declaração Universal dos Direitos Humanos e a aderência do projeto a ela.
  7. Privacidade Pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas com AI de analisar e utilizar esses dados.
  8. Liberdade e Privacidade: A aplicação de IA aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.
  9. Benefício compartilhado: Tecnologias com IA devem beneficiar e capacitar o maior número de pessoas possível.
  10. Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
  11. Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas com IA, para realizar os objetivos escolhidos pelo homem.
  12. Não-subversão: O poder conferido pelo controle de sistemas com IA altamente avançada deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade. A votação do Brexit, na Inglaterra foi um grande exemplo de atentado a este princípio. As eleições brasileiras de 2022, com a produção de fake news e deep fakes foram outro caso típico.
  13. Corrida Armada com IA: Deve ser evitada uma corrida armamentista com armas autônomas letais. Contrariando este princípio, hoje em dia temos robôs armados patrulhando fronteiras, navios, autonomamente, decidindo abrir fogo contra outros navios, robôs-mulas atuando junto com fuzileiros e versões de robôs humanóides treinando pontaria com armas de fogo.

Questões de Longo Prazo

  1. Atenção na Capacidade: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores em futuras capacidades de IA.
  2. Importância: IA avançada poderia representar uma mudança profunda na história da vida na Terra, e deveria ser planejada e administrada com cuidado e recursos proporcionais.
  3. Riscos: Os riscos gerados pelos sistemas com IA, especialmente os riscos catastróficos (já que a IA geralmente age muito rapidamente e em cascata), devem estar sujeitos ao planejamento e mitigação proporcionais ao impacto esperado. O uso de outra IA para prevenir os riscos da primeira é interessante. Outra técnica seria a criação de um domínio de contenção, que evitasse a expansão do problema.
  4. Auto Aprimoramento Recursivo: Sistemas com IA projetados para melhorar ou autorreplicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.
  5. Bem comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos.

No texto original aparece uma lista global de pesquisadores de robótica, inclusive brasileiros. Muito útil para quem estuda o assunto e quer seguir os nomes mais destacados.

[ Leia o texto original em inglês ]

[ Saiba mais sobre os 23 princípios em português ]

[ Sobre a reunião ]

4 Comments

  1. Hali Omani said:

    A comunidade européia criou o documento “Diretrizes de Ética para uma Inteligência Artificial Confiável”. Existe versão em português de Portugal. Veja no site.

    25 de novembro de 2023
    Reply
    • Hali Omani said:

      Notem que os princípios do documento deveriam ser usados para todos os sistemas e não apenas para sistemas de IA. Nem isso conseguimos em nossa história recente. Sistemas computacionais , com IA ou não, continuam sendo usados para a morte, seja no reconhecimento facial, ou na busca por minérios em áreas que deviam ser preservadas. Os donos do mundo não precisam de regras – somente seus escravos.

      25 de novembro de 2023
      Reply
  2. Hali Omani said:

    ## Comentários e referências sobre os Princípios de Asilomar:

    **Comentários:**

    * **Necessidade de atualizações:** Os Princípios de Asilomar foram criados em 2017 e, desde então, o campo da IA evoluiu rapidamente. Alguns especialistas argumentam que os princípios precisam ser atualizados para refletir essas mudanças e abordar novas questões, como o viés algorítmico e a deepfake.
    * **Falta de consenso:** Os Princípios de Asilomar não foram elaborados por um órgão oficial e não representam um consenso global sobre a ética da IA. Alguns especialistas argumentam que princípios mais específicos e acionáveis ​​são necessários.
    * **Foco na pesquisa:** Os Princípios de Asilomar se concentram principalmente na pesquisa em IA, com menos atenção ao desenvolvimento e implantação de sistemas de IA. Alguns especialistas argumentam que é necessária uma estrutura ética mais abrangente que abranja todo o ciclo de vida da IA.

    **Referências:**

    * **O documento original dos Princípios de Asilomar:** [https://futureoflife.org/open-letter/ai-principles/](https://futureoflife.org/open-letter/ai-principles/)
    * **Uma análise crítica dos Princípios de Asilomar:** [https://www.scu.edu/ethics/about-the-center/press–media-hub/press-releases/ethics-in-the-age-of-ai/](https://www.scu.edu/ethics/about-the-center/press–media-hub/press-releases/ethics-in-the-age-of-ai/)
    * **Um artigo discutindo a necessidade de atualizar os Princípios de Asilomar:** [https://arxiv.org/pdf/2306.08959](https://arxiv.org/pdf/2306.08959)
    * **Um site com recursos sobre ética da IA, incluindo os Princípios de Asilomar:** [https://plato.stanford.edu/entries/artificial-intelligence/](https://plato.stanford.edu/entries/artificial-intelligence/)

    ## Exemplos de situações em que o desrespeito aos Princípios de Asilomar criou problemas para a sociedade:

    * **Algoritmos enviesados:** Em alguns casos, algoritmos de IA foram usados ​​de maneiras que discriminam certos grupos de pessoas. Isso levou a problemas como decisões de crédito injustas, sistemas de justiça criminal tendenciosos e anúncios direcionados que perpetuam estereótipos.
    * **Deepfakes:** Deepfakes são vídeos ou gravações de áudio manipulados para fazer parecer que alguém está dizendo ou fazendo algo que não fez. Eles podem ser usados ​​para espalhar desinformação, difamar pessoas ou prejudicar reputações.
    * **Armas autônomas:** Armas autônomas são sistemas de armas que podem selecionar e atacar alvos sem intervenção humana. Alguns especialistas argumentam que o desenvolvimento e o uso de armas autônomas violariam os Princípios de Asilomar, pois poderiam levar a mortes e ferimentos desnecessários.

    **É importante notar que esses são apenas alguns exemplos, e há muitos outros casos em que o desrespeito aos Princípios de Asilomar pode ter consequências negativas.**

    ## Recursos adicionais:

    * **O Instituto Future of Life:** [https://futureoflife.org/](https://futureoflife.org/)
    * **O Centro de Ética Aplicada Markkula:** [https://www.scu.edu/ethics/](https://www.scu.edu/ethics/)
    * **A Enciclopédia de Filosofia de Stanford:** [https://plato.stanford.edu/entries/artificial-intelligence/](https://plato.stanford.edu/entries/artificial-intelligence/)

    (Google Bard)

    6 de maio de 2024
    Reply

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *