Filosofando com a IA: a Felicidade

Abstract

Há alguns anos escrevi um pequeno texto que ilustra uma situação problemática sobre o julgamento de se a vida de uma determinada pessoa fictícia (Bento) foi uma vida feliz ou não. Uso com frequência esse texto em minhas aulas introdutórias, como um recurso didático para explicar o que é a filosofia, qual o seu papel no nosso entendimento do mundo, e também para ilustrar a sua principal dificuldade, que é o caráter aporético das questões filosóficas: elas não admitem soluções unânimes ou incontroversas. Elas sempre exigem escolha e engajamento. O mérito desse texto (que será reproduzido no diálogo abaixo) é que praticamente todos nós, ao o lermos ou ouvirmos, temos uma propensão imediata e irresistível de considerar ou que a vida de Bento foi feliz ou que ela foi infeliz. E nós divergimos sobre isso. Em todas as incontáveis vezes que o apresentei para alguma plateia, jamais as respostas foram unânimes. Sempre houve divergências, o que ilustra bem o caráter aporético da filosofia. Logo que eu soube do ChatGPT e de suas capacidades extraordinárias como sistema de inteligência artificial (IA), resolvi provocá-lo com meu texto. Sua resposta à pergunta sobre a felicidade de Bento foi impressionantemente clara. Talvez a resposta mais clara sobre a questão que já obtive até hoje. Fiquei realmente impressionado, mas também um pouco decepcionado. Porque apesar de fazer uma análise filosófica bastante sofisticada da situação, o ChatGPT recusou-se a fazer uma escolha, a decidir se o personagem teve ou não uma vida feliz. Ele me informou que, como um sistema de IA, ele não tem valores e não faz escolhas. Não gosta nem desgosta, não prefere. E isso me deixou frustrado, porque escolher, preferir, decidir, mesmo quando não temos todas as informações completas é, para mim, não apenas a essência da filosofia, como também a essência de nossa inteligência humana. Como eu queria ver o ChatGPT fazer escolhas, adotei, então, a estratégia de solicitar que ele assumisse um personagem humano, que fingisse ser uma pessoa, e passei a conversar com esta pessoa. Se ele executar bem o papel de uma pessoa, então ele deverá fazer escolhas, pensei. E assim começou esta nossa conversa filosófica sobre a felicidade.

Author's Profile

Daniel Durante
Universidade Federal do Rio Grande do Norte

Analytics

Added to PP
2023-04-20

Downloads
267 (#74,501)

6 months
106 (#50,115)

Historical graph of downloads since first upload
This graph includes both downloads from PhilArchive and clicks on external links on PhilPapers.
How can I increase my downloads?