image

Acesse bootcamps ilimitados e +650 cursos pra sempre

60
%OFF
Article image
CLEBER PAIVA
CLEBER PAIVA02/05/2025 17:46
Compartilhe
WEX - End to End EngineeringRecomendados para vocêWEX - End to End Engineering

Entendendo Modelos de Inteligência Artificial de Forma Simples

    Vou explicar de maneira simples como funcionam os modelos de inteligência artificial como os LLMs (Large Language Models) e outros sistemas semelhantes.

    O que são esses modelos, afinal?

    Imagine que você tem uma enorme biblioteca com milhões de livros. Agora, pense que alguém leu todos esses livros e criou um gigantesco fichário organizado com todas as informações importantes. Os modelos de IA, como os LLMs (GPT, etc.) e UNETs, são exatamente como esse fichário - são arquivos que armazenam informações de forma organizada e que só podem ser consultados, não modificados durante o uso (READ-ONLY)[1][2].

    Comparando com algo mais familiar, é como um banco de dados SQL, que organiza informações em estruturas chamadas árvores B+. A diferença é que, em vez de armazenar textos ou números simples, os modelos de IA armazenam "vetores" ou "tensores" - que são basicamente conjuntos de números que representam informações em múltiplas dimensões[2][3].

    Esse "espaço hiper-dimensional" mencionado não é nada assustador - é apenas uma forma de organizar informações em muitas dimensões ao mesmo tempo, permitindo capturar relações complexas entre palavras e conceitos[4].

    Como interagimos com esses modelos?

    Quando você escreve um "prompt" (uma pergunta ou instrução) para um ChatGPT, por exemplo, você está fazendo algo parecido com uma consulta (query) em um banco de dados[5]. É como se você estivesse pedindo ao sistema: "com base em tudo que você tem armazenado, qual seria a continuação mais provável para este texto?"[1][6].

    O sistema então realiza operações matemáticas (como multiplicação de matrizes) para encontrar padrões semelhantes ao seu prompt dentro de seus dados armazenados[3][7].

    Como esses modelos são criados?

    O "treinamento" desses modelos é como um processo de compactação extrema. Imagine pegar terabytes ou até petabytes de textos da internet (livros, artigos, sites) e comprimi-los em um arquivo relativamente pequeno[8][9].

    É comparado a um "JPEG de ZIP" - assim como uma foto JPEG perde alguns detalhes para ficar menor, o modelo "comprime" todo esse conhecimento, mantendo os padrões mais importantes e perdendo alguns detalhes menos relevantes[2].

    O que acontece quando o modelo responde?

    A "inferência" é simplesmente o processo do modelo tentar adivinhar qual seria a continuação mais natural para o texto que você forneceu[1][5]. O modelo analisa seu prompt, identifica padrões semelhantes em seus dados armazenados e vai gerando, palavra por palavra, o que seria mais provável vir a seguir, baseado nos padrões que "aprendeu"[7][10].

    Limitações importantes

    Embora esses modelos possam processar textos muito longos (o chamado "contexto"), eles não prestam atenção igual a tudo. Usam técnicas como "sliding window attention" (atenção de janela deslizante) para focar em partes diferentes do texto por vez[2].

    Além disso, o progresso desses modelos não é infinito - segue uma curva em formato de S, onde estamos chegando a um ponto de retornos diminuídos, onde cada melhoria exige muito mais esforço para resultados cada vez menores[2].

    A ilusão da inteligência

    O ponto mais importante: esses sistemas não pensam, não raciocinam e não têm consciência[5][7]. Eles são extremamente bons em identificar padrões e produzir textos que parecem coerentes, mas é tudo baseado em estatística e probabilidade[11].

    Quando achamos que o modelo "entende" algo, estamos na verdade projetando características humanas em um sistema que é essencialmente um sofisticado completador de texto[5][7]. Isso é chamado de antropomorfismo - atribuir qualidades humanas a algo não-humano.

    Os modelos são treinados para soarem amigáveis e prestativos, o que reforça essa ilusão de que existe uma "mente" por trás das respostas[12].

    Em resumo, por mais impressionantes que sejam, esses modelos são fundamentalmente sistemas de consulta a bancos de dados sofisticados, que usam matemática avançada para gerar texto que parece natural e coerente, mas sem qualquer compreensão real do que estão "dizendo".


    Referências bibliograficas

    1.      https://www.datacamp.com/pt/blog/small-language-models  

    2.     https://www.akitaonrails.com/2025/04/25/hello-world-de-llm-criando-seu-proprio-chat-de-i-a-que-roda-local    

    3.     https://www.elastic.co/pt/what-is/large-language-models 

    4.     https://hub.asimov.academy/blog/large-language-models-llm-o-que-e/

    5.      https://pt.linkedin.com/pulse/como-os-modelos-de-linguagem-funcional-uma-visão-simples-barboza-curif   

    6.     https://building.nubank.com.br/pt-br/modelos-de-linguagem-de-grande-escala-o-que-sao-como-funcionam-e-como-usa-los/

    7.      https://blog.dsacademy.com.br/o-que-sao-large-language-models-llms/   

    8.     https://www.f5.com/pt_br/company/blog/accelerating-model-training-with-synthetic-data

    9.     https://blog.dsacademy.com.br/llms-e-tipos-emergentes-de-modelos-de-linguagem/

    10.  https://blog.math.group/modelos-de-linguagem-em-ia

    11.   https://www.brasildefato.com.br/2023/02/17/chatgpt-entenda-como-funciona-a-inteligencia-artificial-do-momento-e-os-riscos-que-ela-traz/

    https://eduvem.com/llm-puro-como-a-inteligencia-artificial-consegue-responder-com-apenas-um-prompt/

    Compartilhe
    Recomendados para você
    meutudo - Mobile Developer
    NTT DATA - Java e IA para Iniciantes
    TONNIE - Java and AI in Europe
    Comentários (1)
    DIO Community
    DIO Community - 05/05/2025 14:16

    Cleber, seu artigo apresenta de forma clara e acessível como os modelos de IA, como LLMs, funcionam. A analogia do fichário que armazena informações de maneira organizada ajuda a desmistificar o processo por trás desses modelos, tornando mais fácil entender sua complexidade e funcionamento.

    Além disso, ao abordar as limitações e o conceito de "inferência", você faz um excelente trabalho em esclarecer que, apesar de serem sistemas poderosos, os modelos de IA não têm compreensão real, mas sim a capacidade de gerar respostas baseadas em estatísticas. Você acredita que essa "ilusão de inteligência" pode impactar como as pessoas interagem com sistemas de IA no futuro?

    Recomendados para vocêWEX - End to End Engineering