image

Acesse bootcamps ilimitados e +650 cursos

50
%OFF
Article image
CLEBER PAIVA
CLEBER PAIVA02/05/2025 17:46
Compartilhe

Entendendo Modelos de Inteligência Artificial de Forma Simples

    Vou explicar de maneira simples como funcionam os modelos de inteligência artificial como os LLMs (Large Language Models) e outros sistemas semelhantes.

    O que são esses modelos, afinal?

    Imagine que você tem uma enorme biblioteca com milhões de livros. Agora, pense que alguém leu todos esses livros e criou um gigantesco fichário organizado com todas as informações importantes. Os modelos de IA, como os LLMs (GPT, etc.) e UNETs, são exatamente como esse fichário - são arquivos que armazenam informações de forma organizada e que só podem ser consultados, não modificados durante o uso (READ-ONLY)[1][2].

    Comparando com algo mais familiar, é como um banco de dados SQL, que organiza informações em estruturas chamadas árvores B+. A diferença é que, em vez de armazenar textos ou números simples, os modelos de IA armazenam "vetores" ou "tensores" - que são basicamente conjuntos de números que representam informações em múltiplas dimensões[2][3].

    Esse "espaço hiper-dimensional" mencionado não é nada assustador - é apenas uma forma de organizar informações em muitas dimensões ao mesmo tempo, permitindo capturar relações complexas entre palavras e conceitos[4].

    Como interagimos com esses modelos?

    Quando você escreve um "prompt" (uma pergunta ou instrução) para um ChatGPT, por exemplo, você está fazendo algo parecido com uma consulta (query) em um banco de dados[5]. É como se você estivesse pedindo ao sistema: "com base em tudo que você tem armazenado, qual seria a continuação mais provável para este texto?"[1][6].

    O sistema então realiza operações matemáticas (como multiplicação de matrizes) para encontrar padrões semelhantes ao seu prompt dentro de seus dados armazenados[3][7].

    Como esses modelos são criados?

    O "treinamento" desses modelos é como um processo de compactação extrema. Imagine pegar terabytes ou até petabytes de textos da internet (livros, artigos, sites) e comprimi-los em um arquivo relativamente pequeno[8][9].

    É comparado a um "JPEG de ZIP" - assim como uma foto JPEG perde alguns detalhes para ficar menor, o modelo "comprime" todo esse conhecimento, mantendo os padrões mais importantes e perdendo alguns detalhes menos relevantes[2].

    O que acontece quando o modelo responde?

    A "inferência" é simplesmente o processo do modelo tentar adivinhar qual seria a continuação mais natural para o texto que você forneceu[1][5]. O modelo analisa seu prompt, identifica padrões semelhantes em seus dados armazenados e vai gerando, palavra por palavra, o que seria mais provável vir a seguir, baseado nos padrões que "aprendeu"[7][10].

    Limitações importantes

    Embora esses modelos possam processar textos muito longos (o chamado "contexto"), eles não prestam atenção igual a tudo. Usam técnicas como "sliding window attention" (atenção de janela deslizante) para focar em partes diferentes do texto por vez[2].

    Além disso, o progresso desses modelos não é infinito - segue uma curva em formato de S, onde estamos chegando a um ponto de retornos diminuídos, onde cada melhoria exige muito mais esforço para resultados cada vez menores[2].

    A ilusão da inteligência

    O ponto mais importante: esses sistemas não pensam, não raciocinam e não têm consciência[5][7]. Eles são extremamente bons em identificar padrões e produzir textos que parecem coerentes, mas é tudo baseado em estatística e probabilidade[11].

    Quando achamos que o modelo "entende" algo, estamos na verdade projetando características humanas em um sistema que é essencialmente um sofisticado completador de texto[5][7]. Isso é chamado de antropomorfismo - atribuir qualidades humanas a algo não-humano.

    Os modelos são treinados para soarem amigáveis e prestativos, o que reforça essa ilusão de que existe uma "mente" por trás das respostas[12].

    Em resumo, por mais impressionantes que sejam, esses modelos são fundamentalmente sistemas de consulta a bancos de dados sofisticados, que usam matemática avançada para gerar texto que parece natural e coerente, mas sem qualquer compreensão real do que estão "dizendo".


    Referências bibliograficas

    1.      https://www.datacamp.com/pt/blog/small-language-models  

    2.     https://www.akitaonrails.com/2025/04/25/hello-world-de-llm-criando-seu-proprio-chat-de-i-a-que-roda-local    

    3.     https://www.elastic.co/pt/what-is/large-language-models 

    4.     https://hub.asimov.academy/blog/large-language-models-llm-o-que-e/

    5.      https://pt.linkedin.com/pulse/como-os-modelos-de-linguagem-funcional-uma-visão-simples-barboza-curif   

    6.     https://building.nubank.com.br/pt-br/modelos-de-linguagem-de-grande-escala-o-que-sao-como-funcionam-e-como-usa-los/

    7.      https://blog.dsacademy.com.br/o-que-sao-large-language-models-llms/   

    8.     https://www.f5.com/pt_br/company/blog/accelerating-model-training-with-synthetic-data

    9.     https://blog.dsacademy.com.br/llms-e-tipos-emergentes-de-modelos-de-linguagem/

    10.  https://blog.math.group/modelos-de-linguagem-em-ia

    11.   https://www.brasildefato.com.br/2023/02/17/chatgpt-entenda-como-funciona-a-inteligencia-artificial-do-momento-e-os-riscos-que-ela-traz/

    https://eduvem.com/llm-puro-como-a-inteligencia-artificial-consegue-responder-com-apenas-um-prompt/

    Compartilhe
    Recomendados para você
    Microsoft 50 Anos - Prompts Inteligentes
    Microsoft 50 Anos - GitHub Copilot
    Microsoft 50 Anos - Computação em Nuvem com Azure
    Comentários (0)