Tecnologia

23 princípios para tornar a Inteligência Artificial mais segura

A preocupação com o desenvolvimento seguro da Inteligência Artificial tem se tornado um assunto cada vez mais relevante.

Na história recente, estamos observando fortes sinais de alerta, como acidentes com carros autônomos, o robô atirador (F.E.D.O.R.), o escândalo Cambridge Analytica e a manipulação da massa, o vídeo de alerta do Future of Life Institute com a simulação dos drones assassinos, a utilização de Inteligência Artificial para geração de Fake News, Deep Fake e manipulação de vídeos em geral, entre muitos outros exemplos assustadores.

Inteligência artificial e segurança

Embora uma forma definitiva de se garantir o desenvolvimento benéfico seja difícil de ser alcançada, os princípios de Asilomar, listados a seguir, se apresentam como o caminho a ser seguido para mitigar os riscos e buscar a segurança necessária.

Eles são o resultado de um trabalho conjunto de pesquisadores acadêmicos e da indústria, contando com a contribuição de lideranças nas áreas de economia, legislação, ética e filosofia. Parte destes princípios podem ser implementados imediatamente, enquanto outros ainda dependerão de disrupturas tecnológicas.

Princípios de Asilomar

Aqui estão eles:

Aspectos de Pesquisa

1. Objetivo da pesquisa: O objetivo da pesquisa em Inteligência Artificial deve ser não criar inteligência não direcionada, mas inteligência benéfica;

2. Financiamento da pesquisa: Os investimentos em Inteligência Artificial (AI) devem ser acompanhados por investimentos em pesquisa para garantir seu uso benéfico, incluindo questões como ciência da computação, economia, legislação, ética e social.

  • Como podemos tornar os sistemas AI altamente robustos, de forma que eles façam o que queremos sem apresentar defeitos ou serem hackeados?
  • Como podemos promover a prosperidade através da automação ao mesmo tempo em que resguardemos os recursos e os propósitos das pessoas?
  • Como atualizar nossos sistemas legais para serem mais justos e eficientes, para acompanharem o ritmo da AI e gerenciar os riscos associados à AI?
  • Como definirmos os valores que a AI deve seguir e que status ético e legal estes valores devem possuir?

3. Relação Ciência / Legislação: Deve haver um relacionamento construtivo e saudável entre pesquisadores de AI e os legisladores.

4. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser estimulada entre pesquisadores e desenvolvedores de AI.

5. Evitar disputa: Equipes desenvolvendo AI devem cooperar ativamente para evitar atalhos em padrões de segurança.

O objetivo da pesquisa em AI deve ser não criar inteligência benéfica (Crédito: Shutterstock)

Ética e valores

6. Segurança: Sistemas AI devem ser seguros e protegidos por toda a sua vida útil, e isto deve ser passível de verificação quando aplicável e viável.

7. Transparência das falhas: Se um sistema AI causar algum tipo de dano, deve ser possível identificar o porquê.

8. Transparência legal: Qualquer envolvimento de um sistema autônomo em uma decisão jurídica deve prover uma explicação satisfatória e auditável por uma autoridade humana.

9. Responsabilidade: Designers e construtores de sistemas de AI avançados são responsáveis nas implicações morais do seu uso, mal uso e ações, com responsabilidade e oportunidade para tratar estas implicações.

10. Alinhamento de valores: Sistemas AI altamente autônomos devem ser projetados de forma que seus objetivos e comportamentos sejam asseguradamente alinhados com os valores humanos ao longo de toda a sua operação.

11. Valores humanos: Sistemas AI devem ser projetados e operados de forma compatível com os ideais de dignidade humana, direitos, liberdade e diversidade cultural.

12. Privacidade pessoal: As pessoas devem ter direito de acessar, gerenciar e controlar os dados que elas geram, tendo em vista a poder dos sistemas AI para analisá-los e utilizá-los.

13. Liberdade e privacidade: A aplicação de AI sobre dados pessoais não deve restringir de forma injustificada a liberdade das pessoas, de forma real ou percebida.

14. Benefício compartilhado: Tecnologias AI devem beneficiar e empoderar a maior quantidade de pessoas possível.

15. Prosperidade compartilhada: A prosperidade econômica criada por AI deve ser compartilhada largamente, beneficiando toda a humanidade.

16. Controle humano: Humanos devem escolher como e quando delegar decisões para sistemas AI, para atinigir os objetivos escolhidos pelos humanos.

17. Não-subversão: O poder conferido aos sistemas AI altamente avançados deve respeitar e se aprimorar os processos sociais e cívicos dos quais a sociedade sadia depende, nunca subvertendo-os.

18. Corrida armamentista em AI: Uma corrida armamentista para armas autônomas letais deve ser evitada.

Questões de longo prazo

19. Precauções com capacidade: Não havendo consenso, devemos evitar inferências sobre os limites da capacidade de sistemas AI no futuro.

20. Importância: AIs avançadas podem representar uma mudança profunda na história da vida sobre a Terra e deve ser planejada e gerenciada com cautela e recursos proporcionais.

21. Riscos: Os riscos apresentados por sistemas AI, especialmente os riscos catastróficos ou existenciais, devem ser assunto de planejamento e esforços de mitigação proporcionais aos seus impactos esperados.

22. Auto-aprimoramento recursivo: Sistemas AI projetados para automaticamente se melhorarem ou se replicarem de forma que possa rapidamente promover aumento em quantidade ou qualidade devem ser assunto de rigorosas medidas de controle e segurança.

23. Bem comum: Superinteligência deve ser unicamente desenvolvida a serviço de ideais éticos amplamente compartilhados e para o benefício de toda a humanidade em detrimento de um estado ou organização.


Traduzido de Asilomar AI Principles, por indicação do prof. Antônio Marcos Alberti, do Inatel.

ASSINE NOSSA NEWSLETTER SEMANAL

Vinicius Soares

Engenheiro de Telecomunicações pelo Instituto Nacional de Telecomunicações e MBA em Marketing pela FGV. Atua no mercado de TIC há mais de 20 anos, com experiência em gestão de desenvolvimento de software, gestão de portfólio, marketing e vendas B2B. É especialista em Inteligência Artificial e em Estratégia de Produtos e Serviços em TIC. Fundador do AiNews Network e da Mais a.i., empreendimentos baseados em Inteligência Artificial, sendo o AiNews Network um site com conteúdo especializado em I.A. e a Mais a.i. uma empresa de consultoria, projetos e educação executiva, também em I.A.

ARTIGOS RELACIONADOS

Comentários no Facebook