image

Accede a bootcamps ilimitados y a más de 650 cursos para siempre

75
%OFF
Article image

DS

Daniel Shizuo14/11/2025 13:09
Compartir

Large Language Model: Como a inteligência artificial fala na linguagem humana?

    No mundo altamente tecnológico que vivemos e que segue em ascensão, é perceptível a dominância de uma ferramenta chamada Large Language Model devido as aparições como ChatGPT que é uma LLM lançada em 2022 marcando um passo histórico global na IA Generativa, por permitir que seus recursos possam ser utilizados por toda a sociedade, visto que, grandes modelos de linguagem eram substancialmente usados exclusivamente por profissionais da área como: pesquisadores, cientistas ou desenvolvedores. No entanto, o que exatamente são essas ferramentas e como elas alcançaram essa capacidade? Este artigo explora os conceitos fundamentais por trás dos LLMs, desde sua arquitetura básica até o impacto que estão destinados a causar na próxima década.

    image

    Mas o que realmente são LLMs?

    A large language model é um subconjunto mais avançado de deep learning (aprendizado profundo), um modelo de uso geral treinados em grandes quantidades de dados e parâmetros que possibilitam a capacidade de aprender padrões e estruturas na linguagem que lhe permite gerar textos semelhante ao humano. Para alcançar este modelo foi necessário desmistificar problemas em conceitos de processamento em redes neurais de arquiteturas antigas como RNNs (Redes Neurais Recorrentes) que, para entender uma frase o modelo era projetado para processar dados sequenciais ou séries temporais para fazer as previsões dos inputs estabelecidos, o diferencial deste modelo era justamente a “memória” que se apoiavam nas informações de inputs passados para gerar as entradas e saídas atuais. O problema deste modelo era a lentidão no processamento sequencial e a perca de memória com o tempo. 

    Após o modelo RNNs surgiu o modelo Transformer junto a um artigo científico com título “Atenção é tudo o que você precisa”, este modelo trouxe soluções de problemas e limitações identificados nos modelos dominantes da época. Diferentemente do modelo de Rede Neural Recorrente o modelo Transformer tinha o processamento paralelo, abandonando problemas de lentidão e desvantagens que o processamento sequencial possuía. Este novo modelo é uma rede neural 

    Como elas geram texto?

    A capacidade de uma inteligência artificial atingir um nível de linguagem de “falar como humano” acontece por uma série de fatores na construção e treinamento de uma LLM, ela é treinada inicialmente com um conjunto de dados extremamente grande como: Livros, Artigos, Internet e códigos. A forma como ela entende as frases é feita analisando o contexto, como diferenciar a palavra “manga” na frase, o modelo consegue discernir e diferenciar o significado da palavra analisando as palavras ao redor dela (“Camisa”, “Fruta”, “Doce”, “Macia”) algo que possa referenciar a palavra, dessa forma o modelo permite conectar as frases e escrever um parágrafo que faça sentido. 

    Porém, esta primeira etapa do processo é apenas o treinamento inicial onde através de redes neurais o modelo processa os prompts gerando uma distribuição de probabilidades para diversas palavras e tokens quem podem vir a seguir e também ele utiliza de uma técnica de amostragem para selecionar uma palavra dessa lista, dando mais chance às palavras mais prováveis, mas ainda permitindo que palavras menos prováveis (ainda corretas) sejam escolhidas. 

    Entendendo os pilares da LLM: Large Language Model

    Large

    Este é o diferencial de arquiteturas antigas, o "grande" (ou Large) se refere a dois principais processos: 

    Tamanho de dados no treinamento: Eles são treinados em uma porção massiva da internet, livros, artigos e códigos. Basicamente, quase todo o conhecimento humano escrito e digitalizado. 

    O tamanho do modelo e parâmetros: O número de "parâmetros" é enorme, na casa dos bilhões ou, conseguindo chegar em alguns casos na casa dos trilhões. É essa escala que permite que eles tenham um desempenho impressionante e uma compreensão profunda no contexto, os parâmetros são conexões (ou sinapses) em que cada parâmetro determina a importância de uma conexão entre elas, então basicamente quando você digita um prompt o modelo ele utiliza destas conexões para calcular, adivinhar e prever a probabilidade da palavra que vem a seguir.

    Language

    Esta parte do modelo é focada no NLP que é um campo da inteligência artificial que faz com que os computadores interpretem, entendam e escrevam de uma forma sútil e natural na linguagem humana, trazendo uma melhor experiência do usuário. Isso advém do treinamento com uma quantidade enorme de dados. Exemplo prático de como isso pode funcionar: 

    image

    Tom amigável e sociável: A resposta da IA estabelecendo com um tom amigável é resultado do treinamento em que o modelo leu diversas, bilhões de conversas em blogs, redes sociais e sites. O modelo aprendeu que estatisticamente o token “🙂” é um artifício que costuma aparecer em situações de ajuda. 

    Ajuste fino: Esta é a etapa mais importante para responder uma pergunta. Depois do pré-treinamento, o modelo sabe como a linguagem funciona, mas não sabe como ele deve se comportar.Os engenheiros dão um prompt ao modelo (como "Me explique o que é um LLM em termos simples"). O modelo gera várias respostas possíveis.

    Resposta A: "Um Modelo de Linguagem de Grande Porte é um tipo de..." (Técnica e fria)

    Resposta B: "Sim." (Curta e inútil)

    Resposta C: "Claro! 🙂 Um LLM é um tipo de inteligência artificial..." (Amigável e prestativa)

    Avaliadores humanos observam essas respostas e após uma análise eles avaliam as respostas, dando uma nota mais alta para uma resposta que é mais prestativa e que um tom mais correto e sútil na linguagem humana. 

    Aprendizado por Reforço com Feedback Humano (ou RLHF)

    Detalhando mais este processo de Feedback humano, ele é um método que treina a IA para se tornar mais prestativa e segura, corrigindo seus erros e apontando seus acertos. Este método ou processo se forma a partir de três principais pilares.

    • Coleta de Dados (FeedBack)

    Esta coleta inicial são os dados que pessoas produzem, como escrever respostas corretas para perguntas específicas, isto calibra a LLM e a orienta a seguir os passos desejados.

    • Avaliação

    Nesta etapa os avaliadores humanos são encarregados de classificar melhores e piores respostas às perguntas destinadas a ele. Também existem métodos que utilizam de IAs para realizar esta avaliação e treinamento de outra IA, em que elas recebem estes dados de classificação e os usam para treinar um modelo que ao receber uma perguntar este modelo de treinamento dá uma avaliação para a perguntar, criando um sistema de recompensa. Este modelo basicamente prevê qual seria a pontuação que um humano colocaria.

    • Aprendizado

    No último processo do aprendizado, o algortimo de aprendizado e o modelo em questão ajustam os parâmetros e dados de acordo com as pontuações e avaliações. Caso a pontuação seja baixa o intuito é evitar esse tipo de respostas.

    Model

    O "Modelo" refere-se à arquitetura de rede neural, o "cérebro" digital que processa a complexidade da linguagem. Além deste modelo atual que é a LLM, foi passado por outros modelos seguindo outras metodologias e conceitos. 

    Exemplos de modelos:

    • CNN (Convolutional Neural Network)
    • LSTM (Long Short-Term Memory)
    • Transformer
    • LLMs (Large Language Model)

    Programação: O uso de uma IA em desenvolvimento de software é prejudical?

    Constantemente a Inteligência Artificial vem fazendo partes de diversos contextos no mercado e na vida das pessoas, isso não difere de nós programadores, mas, fazer o uso de Inteligência Artificial para elaboração de códigos é uma má prática? 

    Bom, esta ferramenta com certeza pode influenciar de maneira positiva quanto negativa, a IA é uma ferramenta assim como uma IDE (Ambiente de desenvolvimento Integrado), sua utilização e benefício varia da forma em que ela é utilizada. Trazer esta poderosa ferramenta ao ambiente de trabalho pode trazer um aumento de produtividade e eficiência, códigos e tarefas repetitivas. Como por exemplo na escrita de códigos padrões (boilerplate), automatizando estas tarefas abre mais espaço e tempo para o programador pensar e trabalhar em problemas mais complexos e inovadores para o projeto.

    //exemplo de código boilerplate
    
    <!DOCTYPE html>
    <html class="no-js" lang="">
      <head>
          <meta charset="utf-8">
          <meta http-equiv="x-ua-compatible" content="ie=edge">
          <title></title>
          <meta name="description" content="">
          <meta name="viewport" content="width=device-width, initial- scale=1>
    
          <link rel="stylesheet" href="css/main.css">
      </head>
      <body>
          <p>Hello world!</p>
          <script"></script>
      </body>
    </html>
    

    Para desenvolvedores experientes pode ser uma boa ferramenta de referência, o Copilot por exemplo pode ajudar a aprender novas linguagens, explorar bases de código ou gerar documentação e testes. Realizar ações como:

    • Geração de Boilerplate: Criar estrutura básica de código.
    • Refatoração: Sugerir melhorias de código.
    • Análise Estática: Identificar potenciais problemas antes da execução.
    • Autocompletar: Acelerar a escrita de código.

    Pontos a se preocupar

    Dependência da IA: Uma das principais preocupações é muito causada ambientes de ensino, prejudicando estudantes e iniciantes, o uso no ambiente acadêmico de forma exagerada, pode ocasionar em dependências, vícios e falso conhecimento, algo que irá prejudicar no desenvolvimento de habilidades essencias na vida de um desenvolvedor como: Lógica de programação, análise técnica, resolução de problemas e pensamento crítico. Além destes conceitos existe a desinformação que pode ser causada devido a qualidade e segurança das informações, algo que embora uma IA seja muito tecnológica, algumas respostas podem ser tendenciosas e até incorretas, para isso é necessário um profissional para a utilizar como ferramenta e não como forma de pensar.

    Em relação a criação de códigos junto a LLMs, a avaliação humana é completamente necessária usando IA, pois ela é uma ferramenta que necessista de acompanhamento para não criar bugs ou vulnerabilidades no sistema. Em resumo IAs podem ser uma ferramenta poderosa com capacidades de ser extremamente benéfica ao ambiente de trabalho, se usada com responsabilidade, mas pode ser prejudicial e atrapalhar se houver uma dependência cega de suas sugestões sem a devida revisão crítica e compreensão do código gerado.

    Referências

    Materiais de estudo

    • Curso Google Cloud: Introduction to Generative AI: Gemini
    • Curso Google Cloud: Introduction to Large Language Models
    • Curso Google Cloud: Prompt Design in Vertex IA

    Artigos e leituras

    O processo de RLHF (Aprendizado por Reforço com Feedback Humano) que discutimos é a nossa melhor ferramenta atual para garantir que os LLMs sejam prestativos e seguros. O futuro da IA depende inteiramente de nossa capacidade de "alinhar" esses modelos com valores e intenções humanas à medida que eles se tornam exponencialmente mais capazes, LLMs não são apenas uma nova arquitetura de IA, eles são um novo substrato ou seja um novo meio, uma nova base para a criação de conhecimento

    Compartir
    Recomendado para ti
    CAIXA - Inteligência Artificial na Prática
    Binance - Blockchain Developer with Solidity 2025
    Neo4J - Análise de Dados com Grafos
    Comentarios (0)