A inteligência artificial já forneceu ferramentas benéficas que são usadas todos os dias por pessoas ao redor do mundo. Seu desenvolvimento contínuo, guiado pelos princípios a seguir, oferecerá oportunidades incríveis para ajudar e capacitar as pessoas nas décadas e séculos vindouros.
Os 23 princípios envolvem aspectos de pesquisa, ética e valores e aspectos de longo prazo:
Pesquisa
- Objetivo da Pesquisa: O objetivo da pesquisa em IA não deve ser criar inteligência não direcionada, mas inteligência benéfica.
- Financiamento da Pesquisa: Investimentos em IA devem ser acompanhados de financiamentos em pesquisa para assegurar seu uso benéfico, incluindo Ciência da Computação, Economia, Leis, Ética, e Estudos Sociais para, por exemplo:
- tornar sistemas com IA altamente robustos;
- aumentar a prosperidade por meio da automação;
- atualizar sistemas jurídicos para serem mais justos e eficientes;
- definir o conjunto de valores (e o posicionamento legal e ético) com os quais a IA deve estar alinhada.
- Link entre Ciência e Política: Deve haver um intercâmbio construtivo e saudável entre pesquisadores de IA e formuladores de políticas.
- Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser fomentada entre pesquisadores e desenvolvedores de IA.
- Prevenção de Corrida: Equipes que desenvolvem sistemas de inteligência artificial devem cooperar ativamente para evitar cortes nas normas de segurança.
Éticas e Valores
- Segurança: Os sistemas com IA devem ser seguros e protegidos durante toda a sua vida útil operacional, e verificáveis, quando aplicável e viável.
- Transparência de falha: Se um sistema com IA causar dano, deve ser possível determinar o motivo. A frase “- Não sabemos qual é o problema” não é aceitável nesta área.
- Transparência Judicial: Qualquer envolvimento de um sistema autônomo na tomada de decisões judiciais deve fornecer uma explicação satisfatória passível de auditoria por uma autoridade humana competente.
- Responsabilidade: Designers e construtores de sistemas avançados com IA são partes interessadas nas implicações morais de seu uso, abuso e ações, com responsabilidade e oportunidade de moldar essas implicações.
- Alinhamento de valor: Sistemas com IA altamente autônomos devem ser projetados de modo que seja assegurado que seus objetivos e comportamentos serão alinhados com os valores humanos durante toda a operação.
- Valores Humanos: Os sistemas com IA devem ser projetados e operados de modo a serem compatíveis com os ideais da dignidade humana, direitos, liberdades e diversidade cultural. Geralmente um projeto de IA deve começar com a revisão da Declaração Universal dos Direitos Humanos e a aderência do projeto a ela.
- Privacidade Pessoal: As pessoas devem ter o direito de acessar, gerenciar e controlar os dados que geram, dado o poder dos sistemas com AI de analisar e utilizar esses dados.
- Liberdade e Privacidade: A aplicação de IA aos dados pessoais não deve restringir de forma injustificável a liberdade real ou percebida das pessoas.
- Benefício compartilhado: Tecnologias com IA devem beneficiar e capacitar o maior número de pessoas possível.
- Prosperidade compartilhada: A prosperidade econômica criada pela IA deve ser compartilhada amplamente, para beneficiar toda a humanidade.
- Controle Humano: Os seres humanos devem escolher como e se devem delegar decisões aos sistemas com IA, para realizar os objetivos escolhidos pelo homem.
- Não-subversão: O poder conferido pelo controle de sistemas com IA altamente avançada deve respeitar e melhorar, em vez de subverter, os processos sociais e cívicos dos quais depende a saúde da sociedade. A votação do Brexit, na Inglaterra foi um grande exemplo de atentado a este princípio. As eleições brasileiras de 2022, com a produção de fake news e deep fakes foram outro caso típico.
- Corrida Armada com IA: Deve ser evitada uma corrida armamentista com armas autônomas letais. Contrariando este princípio, hoje em dia temos robôs armados patrulhando fronteiras, navios, autonomamente, decidindo abrir fogo contra outros navios, robôs-mulas atuando junto com fuzileiros e versões de robôs humanóides treinando pontaria com armas de fogo.
Questões de Longo Prazo
- Atenção na Capacidade: Não havendo consenso, devemos evitar fortes suposições sobre os limites superiores em futuras capacidades de IA.
- Importância: IA avançada poderia representar uma mudança profunda na história da vida na Terra, e deveria ser planejada e administrada com cuidado e recursos proporcionais.
- Riscos: Os riscos gerados pelos sistemas com IA, especialmente os riscos catastróficos (já que a IA geralmente age muito rapidamente e em cascata), devem estar sujeitos ao planejamento e mitigação proporcionais ao impacto esperado. O uso de outra IA para prevenir os riscos da primeira é interessante. Outra técnica seria a criação de um domínio de contenção, que evitasse a expansão do problema.
- Auto Aprimoramento Recursivo: Sistemas com IA projetados para melhorar ou autorreplicar-se recursivamente de uma maneira que poderia levar a um aumento rápido da qualidade ou quantidade, devem estar sujeitos a rígidas medidas de segurança e controle.
- Bem comum: A superinteligência só deve ser desenvolvida a serviço de ideais éticos.
No texto original aparece uma lista global de pesquisadores de robótica, inclusive brasileiros. Muito útil para quem estuda o assunto e quer seguir os nomes mais destacados.
[ Leia o texto original em inglês ]
[ Saiba mais sobre os 23 princípios em português ]
[ Sobre a reunião ]
