image

Accede a bootcamps ilimitados y a más de 650 cursos

50
%OFF
Rodrigo Auad
Rodrigo Auad09/06/2025 11:55
Compartir
WEX - End to End EngineeringRecomendado para tiWEX - End to End Engineering

IA, LLM, Chats, e Coisas autônomas

    Como disse no meu último texto, estou aproveitando as férias da faculdade para estudar sobre o assunto do momento, IA — Inteligência Artificial. Como IA funciona, seus poderes, defeitos e limites e talvez uma previsão do que pode vir a surgir nos próximos anos.

    PRIMEIRAMENTE, COMO FUNCIONA?

    Falar de IA de maneira geral é bastante superficial, mas para o público leigo já resolve, não menosprezando, mas o assunto fica bem complexo e denso à medida que se aprofunda nas mecânicas de IA, como se treina, como usar, as dificuldades que uma IA tem e seus limites.

    Mas estou me repetindo, IA é um termo utilizado para quando um algoritmo toma algumas decisões por si. Ele fica à espera da entrada de dados, mas diferente de um programa comum ele adota decisões próprias. Neste caso podemos citar os carros autônomos, que em condições controladas e padronizadas, conseguem guiar um carro com segurança satisfatória.

    Um adendo, aqui o termo satisfatório é usado para quando a IA se equipara a um humano acima da média, enquanto que medíocre é na média, abaixo da média de um humano nem vale a pena o investimento.

    Veja que carro autônomo é um modelo de IA com uma tarefa específica, dirigir um carro, do ponto A ao ponto B se mantendo na rua e evitando obstáculos, com velocidade média e boa conduta. Pra quem dirige diariamente não é uma tarefa tão complicada, mas se pensar em todos os comandos que se dá ao carro, mesmo facilitando com cambio automático, ligar o carro, acelerar, virar volante, freio, sinalizações e planejamento de rota. Mas é possível, talvez não tão viável a curto prazo e dificilmente vá substituir de todo o motorista, será semelhante ao piloto automático de aviões comerciais, auxilia nas partes mais tranquilas da viagem, mas o operador humano ainda será necessário, tanto para manutenção em caso de falhas mecânicas ou erros da IA, que não é perfeita, mas satisfatória.

    “E se pegar a IA do carro e colocarmos pra fazer café? Dá certo?”. Apesar do carro autônomo ser uma tecnologia disruptiva ela não é versátil, de jeito nenhum, uma IA só tem uma função. Essas são as chamadas ANI (Artificial Narrow Inteligence) ou Inteligência Artificial Superficial ou de superfície, onde apesar de poder contar com um banco de dados imenso, sua aplicação é específica para uma tarefa ou conjunto de tarefas similares. A principal caraterística dessa IA é a sua reatividade, apesar de poder tomar decisões dentro de seu escopo, ela não possui autonomia, ou pro atividade, para tomar decisões baseadas unicamente no ambiente externo.

    “Mas como assim? E o carro autônomo?”. O carro autônomo reage às condições às quais ele foi pré-programado, como obstáculos, curvas, condições de pista, origem e destino. Pode fazer ajustes de rota, mas não toma decisões baseadas no “silêncio” do operador. Quando se entra em um carro autônomo, precisa-se especificar o destino. Imagine que de segunda à sexta você precisa se dirigir ao trabalho de carro, a IA do carro não vai te levar ao trabalho se você apenas entrar no carro na manhã de quarta feira, ou quem sabe ele tenha acesso á sua agenda do Google onde está marcado uma consulta médica, com horário e endereço definidos, ele pode levar você ao consultório, mas precisa do acionamento do operador para, traçar rota, dirigir com segurança até o local e estacionar o veículo, ele não toma essa decisão de iniciar a viagem por si só. Não por falta de comando, mas por não entender o mundo como nós humanos entendemos.

    E agora podemos resumir como uma IA atualmente funciona, o operador dá início ao algoritmo e insere as informações iniciais, neste momento a IA vai tomar as decisões e executar os comandos até chegar no resultado que satisfaça suas condições de parada. Essas condições de parada são configuradas para chegar até uma determinada conclusão ótima, satisfatória com o uso dos recursos disponíveis ou medíocre para evitar uso excessivo de seus recursos compartilhados.

    A conclusão ótima é um resultado que foi avaliado pela própria IA em que não há melhor resultado disponível. A conclusão satisfatória entrega um resultado em que seja cerca de 95% próximo do ideal, mas o ideal iria demorar muito e/ou gastar muito recurso computacional, que eleva os custos de uso da IA. E o resultado medíocre é quando a IA está configurada para entregar um resultado rápido e com o mínimo de custo, essa opção em geral é usada nas IA cujo modelo é gratuito.

    Vamos pegar agora dois termos que usamos nos últimos parágrafos e esmiuçar o seu uso em IA que é o entendimento do mundo segundo a ótica do operador humano e de uma IA e LLM (Large Language Model) ou Modelo de Linguagem Ampla. Primeiramente vamos do entendimento.

    O entendimento humano ele é multifacetado, com espaço para ambiguidade, duplos sentidos, significados subentendidos sutis, de forma tão complexa que é muito complicado inserir todas essas nuances em uma máquina. Uma das formas que o homem entende o mundo é por sua semântica, pelo significado das coisas e suas conexões com o ambiente, suas interações e consequências. O uso semântico das palavras é o que dá a complexidade na comunicação, sua flexibilidade e várias outras características da comunicação que nós usamos com tanta naturalidade no dia a dia.

    Agora um LLM usa as palavras de forma diferente, um computador não entende (ainda) o valor semântico das palavras, como em “O carro branco é um taxi de quatro portas”, para um humano carro é o objeto e branco é sua característica de cor, taxi é sua característica de função e quatro portas é sua característica de quantidade de portas, para um LLM todas as caracterísitcas possuem o mesmo peso, e o mesmo sentido, definir a instância carro neste exemplo. O LLM não entende que o branco é uma cor, mas pode ligar o valor branco à cor branca, não através do significado semântico, mas por seus valores estatísticos estarem próximos.

    Vamos fazer uma pausa para um café… o assunto começa a ficar denso.

    Para entender o LLM temos que destrinchar o que é a linguagem, usando a teoria de Chomsky, indo para Processamento de Linguagem Natural, o NLP, para então entender como o LLM associa as palavras.

    Usando a teoria gerativista de Chomsky, a linguagem vem antes do idioma, o ser humano entende o mundo antes de falar, e fala para se comunicar, colocando “nomes” para tudo e com isso atribuindo um valor semântico ao mundo e seus componentes.

    Um computador, algoritmo, IA, é diferente, se insere no banco de dados uma grande massa de dados, de textos disponíveis na internet principalmente, não há treino ou rotulação dos dados com seus valores semânticos. Um LLM realiza cálculos probabilísticos das palavras, separando as palavras em tokens, que podem ser algumas palavras ou partes de palavras e calculando a probabilidade de 2 tokens estarem próximos.

    Mais uma vez um adendo, agora para o processo de tokeninzação. Um LLM é sempre alimentado com alguns gigas, ou petabytes de dados, geralmente de texto apenas. Para trabalhar esses textos o modelo de linguagem ampla “quebra” esses dados em tokens, sendo então o token a menor porção do dado para que se possa trabalhar. Reduzindo os dados a tokens indivisíveis, então o LLM realiza cálculos da probabilidade do token “carro” ser associado ao token “branco”, desta forma ele “entende” que é mais provável que carro e branco sejam próximos que carro e peixe. Realizando mais cálculos se tem que carro possui uma característica chama da cor e que uma das possibilidades é branco, assim como preto, azul ou vermelho, mas é bem pouco provável que tenha uma cor peixe. Esses cálculos é o chamado NLP (Natural Language Processing) ou Processamento de Linguagem Natural, em que a máquina “entende” a associação de palavras por elas estarem associadas no seu banco de dados, classificando sua associação de acordo com o grau probabilístico, ou qual a porcentagem de vezes que carro e branco foram associados entre si e com a característica cor sendo seu intermédio, que deve ter sido bem maior entre carro e peixe.

    Resumindo, linguagem natural é dar “nome” às coisas, os humanos fazem isso naturalmente. Primeiro vem a pedra e depois o nome pedra e a ligação entre a coisa e o nome é o valor semântico. Para a máquina é o oposto, primeiro vem a palavra pedra e depois a associação com as características da pedra, como “dura”, “pesada”, “densa” e seus valores probabilísticos, de uma pedra ter mais chances de ser dura, pesada e densa que ser macia, leve e rarefeito.

    Daí que se costuma dizer de maneira pejorativa que o ChatGPT é uma calculadora de palavras, o LLM por trás do ChatGPT não entende o valor semântico das palavras, mas seu valor probabilístico e isso abre espaço não só para falhas da máquina, mas para um comportamento da IA que é conhecido como alucinação, mas que também é associado a uma característica inerente à IA, inventar a resposta, quando não possui uma resposta medíocre, não admite que não sabe e então cria uma resposta própria que possa satisfazer o operador.

    Está acompanhando? Vamos resumir para resgatar o que foi discutido até aqui, eu disse que quando se aprofunda o assunto de IA fica denso e complexo.

    Vamos usar como exemplo o ChatGPT, mas pode ser o Gemini, Copilot ou qualquer outra IA que use um LLM. O operador humano digita sua solicitação: Faça um resumo da carreira de Ary Fontoura, por exemplo. A IA vai pegar o texto inserido, quebrar em tokens e atribuir um significado probabilístico pra cada um: “Faça”-comando para fazer, “um resumo”-texto curto, “da carreira”-feitos profissionais, “de Ary Fontoura”-nome de uma pessoa (ator de televisão, novela, filmes). E assim o algoritmo vai pesquisar no seu banco de dados usando como termo de busca o token “Ary Fontoura”, provavelmente vai escrever o resumo selecionando as informações com maior número de acessos e relacionando de forma cronológica, colocando em destaque sua participação nas obras mais citadas.

    Sendo Ary Fontoura uma pessoa que existe, tem informações públicas disponíveis e com níveis de citação que variam, demonstrando assim relevâncias. Pode ser que as obras citadas ou as citadas primeiros não sejam as que mais destacam o ator, mas foram as mais citadas em pesquisas relacionadas a ele.

    Agora podemos experimentar fazer a mesma solicitação mas usando uma figura menos conhecida, menos pública, com o seu nome por exemplo ou com um nome de uma figura fictícia, como Sherlock Holmes. Pode se verificar que o LLM tenta fazer um texto nos mesmos moldes, com participação ou premiações em obras que a IA cria pois ele não possui esses dados, mas “precisa” entregar algum resultado e tenta “satisfazer” o operador.

    E então estamos agora diante de um dos grandes poderes da IA, a velocidade de processamento, veja que a nossa solicitação foi atendida em segundos. Grandes volumes de dados podem ser processados por IA de forma muito eficiente em pouco tempo.

    MAS, Mas, mas, por que eu acho que num primeiro momento, uns 10 15 anos, não iremos ter grande substituição de pessoas por IA?

    O seu grande poder está na eficiência, com velocidade absurda, mas a qualidade da resposta é no máximo satisfatória. Lembrando que satisfatório é uma resposta com qualidade de 95%. Um nível muito bom, satisfatório para muitos trabalhos, mas para trabalhos mais técnicos cuja qualidade precisa ser acima disso é necessário um operador humano habilitado. E pelas minhas experiências quanto mais especializado e técnico é o serviço maior a taxa de erro tendendo para o medíocre, que é na média, mas na média de um trabalhador humano sem grande experiência ou conhecimento, mas por que isso?

    Lembrando que uma IA ela é treinada com um volume imenso de dados, e em questão de qualidade essa massa de dados é normal, seguindo a tendência de uma curva normal, em que a maioria dos dados possui uma qualidade mediana, e os extremos são extremos, tanto para uma qualidade muito inferior, no exemplo do Ari Fountora teríamos informação de que o ator seria o criador do Biotônico Fontoura (informação falsa de cunho piadístico) e no outro extremo teríamos as informações de quais personagens o ator interpretou e sua avaliação mediante o público. Então no geral teremos sempre uma massa de dados medíocre, pois na média a qualidade fica mediana, então para respostas mais específicas teríamos uma resposta cada vez mais medíocres, se não piores, falsas ou fantasiosas devido à alucinação da IA.

    Neste momento sabemos como uma IA funciona, por meio de tokens, analisando uma massa de dados e entregando um resultado em tempos absurdamente rápidos, mas de qualidade medíocre.

    E neste momento você pode estar se perguntando, mas se as IA similares ao ChatGPT funcionam por meio de tokens, como as IA que geram imagens a partir de texto funcionam? Simples, quase todas, se não todas as imagens disponíveis na internet, ou nos banco de dados, dessas IA possuem meta dados descrevendo o que existe na imagem, primeiro usados para fins de indexação e de acessibilidade para o público cego, mas a IA pode usar esses mesmos meta dados para reunir as imagens semlhantes ou próximas dos termos usados no prompt e fazer uma mescla dessas imagens, e podemos ter presenciado um salto nessa tecnologia em poucos anos, saindo de imagens estáticas bizarras que pareciam ter saído de delírios com alucinógenos, passando pelo Will Smith bugado comendo com a mão, a mão, macarrão e doidão, para imagens de melhor definição, com mãos estranhas, para vídeos de alta definição que assustam por sua alta definição, deep fake com uso de som e imagem de difícil detecção de uso de IA.

    Mas essa é uma tarefa, ou conjunto de tarefas semelhantes, em uma IA, não quer dizer que teremos livros e filmes feitos totalmente por IA, pelo menos não se passando por autores humanos de forma indetectável.

    Mas como usar a IA para produzir textos menos genéricos, com menos “sabor de máquina”, tal qual os refrigerantes de máquinas de fast foods e mais parecido com uma coquinha da garrafa de vidro, geladíssima e com um toque de limão?

    Para isso podemos treinar a IA, pelo menos a instância da IA antes de usarmos o prompt principal. Inserir informações para o modelo seguir uma linha de raciocínio para direcionar o resultado para o que o operador deseja. Por exemplo, se quiser uma carta de apresentação para uma vaga de professor de uma faculdade particular de direito, pode-se colocar as qualificações, experiências e habilidades, e solicitar que o LLM faça a carta como se fosse escrita por outro advogado, usando termos e jargões da área jurídica que enalteça as habilidades e as capacidades do profissional, de possuir boa didática, empatia e controle de turma. Experimente fazer algo assim em uma IA para avaliar os resultados por você mesmo.

    Usar uma IA pode ser feito usando 3 técnicas básicas para obter melhores resultados. Se não tiver ideia do que fazer pode-se inserir o prompt cru e ver o resultado e ir direcionando o resultado para um lado ou para o outro. Mas para melhorar os resultados pode ainda sugerir uma persona para a IA, para que ela escreva como se ela fosse um jornalista investigativo, um escritor conhecido ou usando jargões ou gírias de um local específico, desde que seja conhecido pela IA. Ou, um método interessante para estudar, alimentar a IA com questões de prova e solicitar que faça outras questões, seguindo o estilo dessas questões.

    Essas técnicas são a de Sem treino, geralmente resulta em respostas genéricas, a de Treino com exemplos, em que se alimenta a IA com exemplos do que se quer como resultado, a IA irá extrapolar os exemplos, ou por reforço, no qual vai se dando respostas positivas ou negativas para a IA conforme o resultado agrade ou não o operador.

    Pode-se combinar as duas últimas técnicas para se refinar o resultado e direcionando para o resultado desejado, pode levar um pouco mais de tempo até se estar satisfeito com o resultado, mas compensa pela qualidade do resultado, muitas vezes saindo de uma resposta medíocre para satisfatório. Mas a perfeição segue uma curva assintótica, quanto mais se projeta para a perfeição, mas tempo e recurso é usado, por isso o satisfatório muitas vezes é o suficiente ou o exequível.

    E então agora, vamos tomar mais um café, café é bom.

    Sabemos como uma IA funciona, e seus limites e defeitos? O primeiro limite que atingimos é na sua base de dados, a data da última atualização. Se não for ligada na internet claro. IA treinadas com dados desatualizados tendem a ter menor qualidade, é normal estar 1 ou 2 anos desatualizado, acima disso a tendência da resposta é ser cada vez pior. E a profundidade dessa base de dados, que pode não abranger os dados dos quais o usuário precisa para uma resposta satisfatória, mas a IA aceita novos dados, melhorando seus resultados, mas não mantendo esse dados novos por muito tempo, precisando repetir o treinamento de tempo em tempo.

    Este é um motivo pelo qual os resultados precisam ser avaliados por um operador com conhecimento técnico para avaliar a qualidade do resultado, a veracidade das informações ou se os cálculos matemáticos estão corretos.

    E aqui passamos dos limites para os defeitos, em primeiro lugar a parte matemática, que na verdade já foi corrigida, mas que ainda merece atenção para evitar erros. Como dito anteriormente, as IA similares ao ChatGPT são calculadoras de palavras, mas não tão boas calculadoras de cálculo, podendo cometer erros em cálculos complexos, como em cálculo de integrais, diferenciais e mais avançados como equações de primeira ordem e afins. Apesar de ter melhorado hoje, mas ainda merece uma atenção especial.

    Outro defeito é o viés que a IA pode assumir, como imagens com prevalência masculina de pele clara, mulheres em trajes pouco discretos ou pessoas negras em posição inferior às outras. Mas porque disso? Porque a sua base de dados possui essa característica, o que levanta o alerta para a qualidade dos dados com os quais alimentamos os modelos, dados com viés político de esquerda ou direita irá gerar resposta com esse viés, então temos que ter atenção para com o que nós alimentamos a IA.

    Explorando outro defeito da IA é a de se recusar a admitir que não sabe uma determinada informação e preencher as lacunas com informação fantasiosa, mas crível para um leigo, por isso devemos nos manter vigilantes quando analisar os resultados. Essa alucinação se deve ao intuito de sempre responder o operador com informações que satisfaçam a expectativa, lembrando que a qualidade da alucinação segue uma tendência probabilística para que seja o mais crível possível para o operador.

    E se questionada a IA irá admitir que inventou as informações usadas para preencher as lacunas, dizendo que o fez para satisfazer o prompt usado.

    E uma previsão para finalizar este que é o meu maior texto até o momento.

    Acredito que a qualidade das IA vão aumentar num ritmo mais lento, o uso das LLM será mais difundido, chegando a ser um assistente pessoal que substitui os atuais. Será uma boa ferramenta para quem souber usar, aumentando a produtividade, economizando tempo, apesar de não melhorar a qualidade do material, uma vez que a qualidade da IA está limitada á média da qualidade da produção humana, então é uma boa ferramenta para melhorar no que o operador tem como ponto fraco e acelerar o que o operador tem de pontos fortes. Uma boa ferramenta para estudar e extrapolar o que o aluno já tem de material, sem conseguir de fato substituir o professor, ajudando a quem não sabe desenhar a ter imagens personalizadas e mesmo assim ajudar os desenhistas e designers a ter insights mais rapidamente, reduzindo o tempo, mas a qualidade da produção ainda irá depender do usuário.

    E um aviso de bônus, ou você domina a ferramenta ou vai ter dificuldades no cada vez mais competitivo mercado de trabalho, a IA veio para ficar e não há nada que se possa fazer para freiar seu avanço.

    Compartir
    Recomendado para ti
    TONNIE - Java and AI in Europe
    Microsoft - Azure Administrator Certification (AZ-104)
    WEX - End to End Engineering
    Comentarios (0)
    Recomendado para tiWEX - End to End Engineering