image

Access unlimited bootcamps and 650+ courses

50
%OFF
Article image
Tito Faria
Tito Faria30/04/2025 10:51
Share

Quem vai ser o responsável se o Agente Autônomo errar?

    Com o aumento da utilização de inteligências artificiais, surge cada vez mais a possibilidade de agentes completamente automatizados. Mas nós ainda precisamos responder uma pergunta antes desses sistemas serem implementados: quem vai ser o responsável por um possível erro ou uma má conduta?

    A IA comprou o ingresso errado:

    Vamos começar com um caso simples. Eu pretendo levar a minha namorada ao cinema, e peço para a Alexa comprar dois ingressos para o filme que está passando. Só quando eu chego no local na hora do filme é que eu percebo que ela comprou o ingresso para o cinema errado. Ao invés de comprar para o Shopping Iguatemi, ela comprou o ingresso para o Shopping JK Iguatemi. Eu não consigo trocar os ingressos. Será que a Alexa vai me reembolsar os ingressos? Talvez a Amazon, o Jeff Bezos? Ou será que o erro foi meu de não ter conferido os ingressos? Quem vai pagar por esse erro? 

    O carro autônomo bateu na árvore:

    Supondo que um carro autônomo está dirigindo na estrada, e um cachorro desavisado atravessa sem prestar atenção. O carro não tem tempo de frear, e ele precisa escolher entre atropelar o cachorro e sair para o acostamento e bater na árvore. Ele escolhe sair para o acostamento, mas o carro sofre perda total. Quem vai pagar pelo seguro do carro? Eu? O cachorro? O Elon Musk? Antes de esses sistemas serem implementados, existe um problema jurídico que precisa ser resolvido, que em inglês se chama de accountability, ou que em português nós poderíamos chamar de responsabilidade. Alguém precisa ser juridicamente responsável caso haja algum dano, acidente ou perda de patrimônio. 

    A IA erra muito e muito feio. 

    Com o tempo, a tendência é que esses erros diminuam cada vez menos, mas talvez eles nunca desapareçam isso porque algumas decisões não são propriamente técnicas, mas muitas vezes são decisões éticas. Vamos supor mais um exemplo: 

    O Problema do Medicamento:

    Um determinado medicamento tem uma chance baixa de fornecer a cura para uma doença, mas tem uma chance alta de produzir efeitos colaterais extremamente custosos e desgastantes. Um médico experiente saberia tomar a melhor decisão, ou fornecer para o paciente a melhor sugestão de tratamento. Mas se o paciente pedir uma sugestão para a IA e ele venha sofrer algum dano, a IA vai se responsabilizar pela escolha? 

    Uma fábrica totalmente automatizada: 

    Suponha que essa fábrica venha a parar. Quem vai ser o responsável pelos prejuízos milionários de uma fábrica parada? 

    Algumas escolhas são simples e não tem muitas consequências. Outras são complexas e problemáticas, e podem gerar consequências desastrosas para muitas pessoas. Eu confiaria em um agente autônomo para as primeiras, mas iria preferir um ser humano para as segundas. 

     

    Referências bibliográficas 

    (106) Stop Button Solution? - Computerphile - YouTube

     

    Share
    Recommended for you
    Microsoft 50 Anos - Prompts Inteligentes
    Microsoft 50 Anos - GitHub Copilot
    Microsoft 50 Anos - Computação em Nuvem com Azure
    Comments (2)
    Tito Faria
    Tito Faria - 30/04/2025 16:19

    Obrigado pelo comentário!

    No caso do carro autônomo, precisaria haver uma legislação sobre o assunto e um acordo com a seguradora para determinar quem seria responsável por um eventual acidente. No caso do medicamento, precisa haver um médico responsável que responda pelo medicamento prescrito. Os médicos muitas vezes contam com seguros caso eles precisem indenizar um paciente por algum eventual erro. Alguns medicamentos não podem ser vendidos sem a prescrição médica.

    No caso do ingresso de cinema, talvez a pessoa consiga reaver o dinheiro se ela pedir o reembolso antes de o filme começar. Ela pode alegar que se enganou ou que se arrependeu da compra, mas muito dificilmente ela vai conseguir o reembolsdo depois de o filme começar.

    No caso de uma fábrica totalmente automatizada que apresente um problema e venha a parar, a empresa precisaria contar um um profissional ou uma equipe de profissionais que entendam do sistema automatizado e que sejam capazes de fazê-lo voltar a funcionar. Não seria possível portanto confiar plenamente na tecnologia, mas precisaria de pessoas que entendam o sistema, as suas vulnerabilidades e as suas falhas para dar o suporte técnico caso o sistema venha a apresentar algum problema. Esse suporte técnico precisaria ser extremamente capacitado e qualificado para entender o sistema a fundo para que ele seja capaz de resolver o problema em caso de mal funcionamento.

    DIO Community
    DIO Community - 30/04/2025 15:48

    Muito interessante, Tito! Você trouxe à tona questões jurídicas e éticas extremamente relevantes sobre a responsabilidade em sistemas automatizados. Sua abordagem é bastante prática e instiga uma reflexão importante sobre até onde podemos confiar na autonomia de agentes de IA.

    Na sua opinião, qual seria o caminho ideal para que a responsabilidade por erros de agentes autônomos seja definida?