A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas ao redor do mundo. Seu desenvolvimento contínuo, guiado pelos princípios a seguir, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas décadas e séculos vindouros.
Os 23 princípios envolvem aspectos de pesquisa, ética e valores e aspectos de longo prazo:
Pesquisa
- Objetivo da Pesquisa: O objetivo da pesquisa em IA não deve ser criar inteligência não direcionada, mas inteligência benéfica.
- Financiamento da Pesquisa: Investimentos em IA devem ser acompanhados de financiamentos em pesquisa para assegurar seu uso benéfico, incluindo Ciência da Computação, Economia, Leis, Ética, e Estudos Sociais para, por exemplo:
- tornar sistemas com IA altamente robustos;
- aumentar a prosperidade por meio da automação;
- atualizar sistemas jurídicos para serem mais justos e eficientes;
- definir o conjunto de valores (e o posicionamento legal e ético) com os quais a IA deve estar alinhada.
- Link entre Ciência e Política: Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.
- Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.
- Prevenção de Corrida: Equipes que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.
Éticas e Valores
- Segurança: Os sistemas com IA devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.
- Transparência de falha: Se um sistema com IA causar dano, deve ser possível determinar o motivo. A frase “- Não sabemos qual é o problema” não é aceitável nesta área.
- Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.
- Responsabilidade: Designers e construtores de sistemas avançados com IA são partes interessadas nas implicações morais de seu uso, abuso e ações, com responsabilidade e oportunidade de moldar essas implicações.
- Alinhamento de valor: Sistemas com IA altamente autônomos devem ser projetados de modo que seja assegurado que seus objetivos e comportamentos serão alinhados com os valores humanos durante toda a operação.
- Valores Humanos: Os sistemas com IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural. Geralmente um projeto de IA deve começar com a revisão da Declaração Universal dos Direitos Humanos e a aderência do projeto a ela.
- Privacidade Pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas com AI de analisar e utilizar esses dados.
- Liberdade e Privacidade: A aplicação de IA aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.
- Benefício compartilhado: Tecnologias com IA devem beneficiar e capacitar o maior número de pessoas possível.
- Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
- Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas com IA, para realizar os objetivos escolhidos pelo homem.
- Não-subversão: O poder conferido pelo controle de sistemas com IA altamente avançada deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade. A votação do Brexit, na Inglaterra foi um grande exemplo de atentado a este princípio. As eleições brasileiras de 2022, com a produção de fake news e deep fakes foram outro caso típico.
- Corrida Armada com IA: Deve ser evitada uma corrida armamentista com armas autônomas letais. Contrariando este princípio, hoje em dia temos robôs armados patrulhando fronteiras, navios, autonomamente, decidindo abrir fogo contra outros navios, robôs-mulas atuando junto com fuzileiros e versões de robôs humanóides treinando pontaria com armas de fogo.
Questões de Longo Prazo
- Atenção na Capacidade: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores em futuras capacidades de IA.
- Importância: IA avançada poderia representar uma mudança profunda na história da vida na Terra, e deveria ser planejada e administrada com cuidado e recursos proporcionais.
- Riscos: Os riscos gerados pelos sistemas com IA, especialmente os riscos catastróficos (já que a IA geralmente age muito rapidamente e em cascata), devem estar sujeitos ao planejamento e mitigação proporcionais ao impacto esperado. O uso de outra IA para prevenir os riscos da primeira é interessante. Outra técnica seria a criação de um domínio de contenção, que evitasse a expansão do problema.
- Auto Aprimoramento Recursivo: Sistemas com IA projetados para melhorar ou autorreplicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.
- Bem comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos.
No texto original aparece uma lista global de pesquisadores de robótica, inclusive brasileiros. Muito útil para quem estuda o assunto e quer seguir os nomes mais destacados.
[ Leia o texto original em inglês ]
[ Saiba mais sobre os 23 princípios em português ]
[ Sobre a reunião ]
A comunidade européia criou o documento “Diretrizes de Ética para uma Inteligência Artificial Confiável”. Existe versão em português de Portugal. Veja no site.
Notem que os princípios do documento deveriam ser usados para todos os sistemas e não apenas para sistemas de IA. Nem isso conseguimos em nossa história recente. Sistemas computacionais , com IA ou não, continuam sendo usados para a morte, seja no reconhecimento facial, ou na busca por minérios em áreas que deviam ser preservadas. Os donos do mundo não precisam de regras – somente seus escravos.
## Comentários e referências sobre os Princípios de Asilomar:
**Comentários:**
* **Necessidade de atualizações:** Os Princípios de Asilomar foram criados em 2017 e, desde então, o campo da IA evoluiu rapidamente. Alguns especialistas argumentam que os princípios precisam ser atualizados para refletir essas mudanças e abordar novas questões, como o viés algorítmico e a deepfake.
* **Falta de consenso:** Os Princípios de Asilomar não foram elaborados por um órgão oficial e não representam um consenso global sobre a ética da IA. Alguns especialistas argumentam que princípios mais específicos e acionáveis são necessários.
* **Foco na pesquisa:** Os Princípios de Asilomar se concentram principalmente na pesquisa em IA, com menos atenção ao desenvolvimento e implantação de sistemas de IA. Alguns especialistas argumentam que é necessária uma estrutura ética mais abrangente que abranja todo o ciclo de vida da IA.
**Referências:**
* **O documento original dos Princípios de Asilomar:** [https://futureoflife.org/open-letter/ai-principles/](https://futureoflife.org/open-letter/ai-principles/)
* **Uma análise crítica dos Princípios de Asilomar:** [https://www.scu.edu/ethics/about-the-center/press–media-hub/press-releases/ethics-in-the-age-of-ai/](https://www.scu.edu/ethics/about-the-center/press–media-hub/press-releases/ethics-in-the-age-of-ai/)
* **Um artigo discutindo a necessidade de atualizar os Princípios de Asilomar:** [https://arxiv.org/pdf/2306.08959](https://arxiv.org/pdf/2306.08959)
* **Um site com recursos sobre ética da IA, incluindo os Princípios de Asilomar:** [https://plato.stanford.edu/entries/artificial-intelligence/](https://plato.stanford.edu/entries/artificial-intelligence/)
## Exemplos de situações em que o desrespeito aos Princípios de Asilomar criou problemas para a sociedade:
* **Algoritmos enviesados:** Em alguns casos, algoritmos de IA foram usados de maneiras que discriminam certos grupos de pessoas. Isso levou a problemas como decisões de crédito injustas, sistemas de justiça criminal tendenciosos e anúncios direcionados que perpetuam estereótipos.
* **Deepfakes:** Deepfakes são vídeos ou gravações de áudio manipulados para fazer parecer que alguém está dizendo ou fazendo algo que não fez. Eles podem ser usados para espalhar desinformação, difamar pessoas ou prejudicar reputações.
* **Armas autônomas:** Armas autônomas são sistemas de armas que podem selecionar e atacar alvos sem intervenção humana. Alguns especialistas argumentam que o desenvolvimento e o uso de armas autônomas violariam os Princípios de Asilomar, pois poderiam levar a mortes e ferimentos desnecessários.
**É importante notar que esses são apenas alguns exemplos, e há muitos outros casos em que o desrespeito aos Princípios de Asilomar pode ter consequências negativas.**
## Recursos adicionais:
* **O Instituto Future of Life:** [https://futureoflife.org/](https://futureoflife.org/)
* **O Centro de Ética Aplicada Markkula:** [https://www.scu.edu/ethics/](https://www.scu.edu/ethics/)
* **A Enciclopédia de Filosofia de Stanford:** [https://plato.stanford.edu/entries/artificial-intelligence/](https://plato.stanford.edu/entries/artificial-intelligence/)
(Google Bard)
Veja discussões valiosas sobre o assunto em:
[ https://futureoflife.org/principles-discussion/ ]