Problemas de Segurança em Inteligência Artificial (Caderno de Resumos do XIX Congresso Internacional de Filosofia da PUCPR 2021 Subjetividade, Tecnologia e Meio Ambiente)

Guarapuava - Boqueirão, Guarapuava - PR, Brasil: APOLODORO VIRTUAL EDIÇÕES (2021)
  Copy   BIBTEX

Abstract

A ansiedade gerada pela possível criação de inteligência artificial geral, algo profetizado desde a fundação do campo de pesquisa (i.e., Dartmouth's Summer Research Project on Artificial Intelligence) (MCCARTHY et al., 1955), é algo comumente investigado dentro dos círculos transhumanistas e singularistas (KURZWEIL, 2005; CHALMERS, 2010; TEGMARK, 2016; 2017; CORRÊA; DE OLIVEIRA, 2021). Por exemplo, em seu livro “Superintelligence: Paths, Dangers, Strategies”, Nick Bostrom (2014) apresenta uma série de argumentos para justificar a ideia de que precisamos ser cautelosos em relação a criação de inteligência artificial avançada ou inteligência artificial geral. Contudo, muito dos argumentos levantados, em suas versões originais (i.e., convergência instrumental e ortogonalidade (OMOHUNDRO, 2008), são baseados em noções “vagas” de conceitos complexos (i.e., “inteligência”, “racionalidade”, “agência”). O objetivo deste resumo (apresentação) será introduzir o leitor/ouvinte ao campo de Segurança da Inteligência Artificial. Nesse campo, questões como o “Problema de controle” (i.e., evitar construir inadvertidamente uma inteligência artificial geral que prejudicará seus criadores) e o “Problema de Alinhamento” (i.e., criar sistemas de inteligência artificial que permaneçam seguros mesmo quando atuando de forma autônoma no ambiente real), que são questões muitas vezes debatidas apenas dentro da Filosofia ou Ficção Científica, ganham um aspecto muito mais real e formal (AMODEI et al., 2016, HUBINGER et al., 2019). A criação de alguns dos modelos de inteligência artificial mais avançados já criados (e.g., AlphaGo, GPT-3) (SILVER el al., 2016; BROWN et al., 2020), está ligado a utilização de dois paradigmas da área de Aprendizagem de Máquina, i.e., Aprendizagem Profunda e Aprendizagem por Reforço. Dentro deste contexto, podemos definir “um sistema autônomo inteligente” como “um sistema que implementa uma política ótima (tecnicamente "ϵ-greedy optimal") para alguma função de recompensa” (ORSEAU et al., 2018). Podemos também definir tais sistemas como “maximizadores de utilidade esperada” (VON NEUMANN; MORGENSTERN, 1944). Um sistema de IA maximizando uma função de recompensa (i.e., objetivo) especificada erroneamente pode vir a causar danos reais quando interagindo no ambiente real, seja por erros de especificação (i.e., Efeitos Colaterais Negativos, Hackeamento de Recompensa, Interrupção Segura), ou quando o domínio de treinamento é diferente do domínio de implantação (i.e., Exploração Segura e Mudança de Domínio). Ao mesmo tempo, especificar objetivos complexos (e.g., preferências e valores humanos) é uma tarefa extremamente complexa, e quando visamos a possibilidade de inteligência artificial avançada agindo no mundo real, é imperativo que tais sistemas estejam: (1) alinhados com nossos objetivos; e (2) desenvolvidos com um design que evite os problemas citados acima. Contudo, tais problemas permanecem em aberto. Por fim, gostaria de ressaltar que no cerne desta problemática, não temos apenas problemas técnicos de aprendizagem de máquina, mas uma importante questão de cunho “Moral”: “O que é a coisa ‘certa” a fazer”? “Qual o objetivo correto a ser perseguido”? “Como podemos especificar isso”? Perguntas como essas prometem um fértil campo para pesquisas interdisciplinares envolvendo inteligência artificial, aprendizagem de máquina, ciências da computação e filosofia moral.

Author's Profile

Nicholas Kluge Corrêa
Pontifical Catholic University of Rio Grande do Sul

Analytics

Added to PP
2021-12-06

Downloads
219 (#64,124)

6 months
61 (#65,289)

Historical graph of downloads since first upload
This graph includes both downloads from PhilArchive and clicks on external links on PhilPapers.
How can I increase my downloads?