Quem vai ser o responsável se o Agente Autônomo errar?
Com o aumento da utilização de inteligências artificiais, surge cada vez mais a possibilidade de agentes completamente automatizados. Mas nós ainda precisamos responder uma pergunta antes desses sistemas serem implementados: quem vai ser o responsável por um possível erro ou uma má conduta?
A IA comprou o ingresso errado:
Vamos começar com um caso simples. Eu pretendo levar a minha namorada ao cinema, e peço para a Alexa comprar dois ingressos para o filme que está passando. Só quando eu chego no local na hora do filme é que eu percebo que ela comprou o ingresso para o cinema errado. Ao invés de comprar para o Shopping Iguatemi, ela comprou o ingresso para o Shopping JK Iguatemi. Eu não consigo trocar os ingressos. Será que a Alexa vai me reembolsar os ingressos? Talvez a Amazon, o Jeff Bezos? Ou será que o erro foi meu de não ter conferido os ingressos? Quem vai pagar por esse erro?
O carro autônomo bateu na árvore:
Supondo que um carro autônomo está dirigindo na estrada, e um cachorro desavisado atravessa sem prestar atenção. O carro não tem tempo de frear, e ele precisa escolher entre atropelar o cachorro e sair para o acostamento e bater na árvore. Ele escolhe sair para o acostamento, mas o carro sofre perda total. Quem vai pagar pelo seguro do carro? Eu? O cachorro? O Elon Musk? Antes de esses sistemas serem implementados, existe um problema jurídico que precisa ser resolvido, que em inglês se chama de accountability, ou que em português nós poderíamos chamar de responsabilidade. Alguém precisa ser juridicamente responsável caso haja algum dano, acidente ou perda de patrimônio.
A IA erra muito e muito feio.
Com o tempo, a tendência é que esses erros diminuam cada vez menos, mas talvez eles nunca desapareçam isso porque algumas decisões não são propriamente técnicas, mas muitas vezes são decisões éticas. Vamos supor mais um exemplo:
O Problema do Medicamento:
Um determinado medicamento tem uma chance baixa de fornecer a cura para uma doença, mas tem uma chance alta de produzir efeitos colaterais extremamente custosos e desgastantes. Um médico experiente saberia tomar a melhor decisão, ou fornecer para o paciente a melhor sugestão de tratamento. Mas se o paciente pedir uma sugestão para a IA e ele venha sofrer algum dano, a IA vai se responsabilizar pela escolha?
Uma fábrica totalmente automatizada:
Suponha que essa fábrica venha a parar. Quem vai ser o responsável pelos prejuízos milionários de uma fábrica parada?
Algumas escolhas são simples e não tem muitas consequências. Outras são complexas e problemáticas, e podem gerar consequências desastrosas para muitas pessoas. Eu confiaria em um agente autônomo para as primeiras, mas iria preferir um ser humano para as segundas.
Referências bibliográficas
(106) Stop Button Solution? - Computerphile - YouTube