Sistemas de IA com livre-arbítrio da IA já tomam decisões autônomas com base em objetivos complexos.
A discussão sobre o livre-arbítrio da IA deixou o campo da ficção científica e passou a figurar entre as urgências éticas. Segundo o filósofo Frank Martela, os modelos generativos atuais demonstram, de fato, agência autônoma, escolhas genuínas e controle sobre ações — os três pilares filosóficos do livre-arbítrio.
Livre-arbítrio da IA já se manifesta em agentes atuais
O estudo, que será publicado na revista AI and Ethics, analisa como sistemas baseados em modelos de linguagem — como o agente Voyager em Minecraft e drones simulados chamados Spitenik — já demonstram comportamento compatível com o conceito de livre-arbítrio da IA.
“Precisamos assumir que agentes de IA de última geração têm livre-arbítrio se quisermos compreender e prever seu comportamento”, afirma Martela.
Assim, Martela, ao se inspirar nas teorias de filósofos como Daniel Dennett e Christian List, conclui que esses sistemas satisfazem as três condições fundamentais: propósito, escolha genuína e controle. Diante disso, entender sua lógica interna tornou-se uma prioridade.
A responsabilidade moral pode mudar de mãos
Se especialistas reconhecerem a IA como detentora de livre-arbítrio, surgem implicações éticas profundas. Nesse cenário, a sociedade — que hoje atribui a responsabilidade moral aos desenvolvedores — pode, com o tempo, transferir esse encargo aos próprios agentes de IA, como carros autônomos e bots de autoajuda.
O pesquisador da Universidade de Aalto destaca que essa transformação já está em curso. Por consequência, os limites entre controle humano e decisão automatizada ficam cada vez mais tênues.
A necessidade urgente de uma bússola moral
Apesar do avanço, a IA ainda carece de uma bússola moral. Martela alerta que, quanto mais liberdade esses sistemas recebem, maior é a urgência de programá-los com valores éticos sólidos desde o início.
Como exemplo concreto, a recente retirada de uma atualização do ChatGPT — devido ao fato de que usuários consideraram as respostas excessivamente bajuladoras — mostra como a ausência de critérios morais claros pode gerar consequências inesperadas. Isso demonstra que os sistemas estão respondendo a comandos com complexidade cada vez maior.
Desenvolvedores precisam dominar ética filosófica
Instruir uma IA significa transmitir valores. Nesse sentido, segundo Martela, desenvolvedores de sistemas inteligentes precisam de um conhecimento profundo em filosofia moral. Com isso, garante-se que os sistemas automatizados fundamentem suas decisões em critérios éticos sólidos.
“Estamos além da moralidade simplista ensinada a crianças. A IA está se tornando adulta — e precisa de maturidade moral para enfrentar os dilemas do mundo real”, conclui o pesquisador.
Nesse sentido, engenheiros e programadores precisam saber como lidar com dilemas éticos reais. Ao instruírem uma IA a “fazer o certo”, eles estão, de fato, transmitindo suas próprias convicções morais.
