image

Bolsas de estudo DIO PRO para acessar bootcamps ilimitados

Available only:

527 slots
Article image
Alexandro Andrade
Alexandro Andrade09/04/2026 09:28
Share
CI&T - Do Prompt ao AgenteRecommended for youCI&T - Do Prompt ao Agente

Além do CRUD: Integrando LLMs Locais (Llama 3) em APIs .NET 8go

    Excelente, Alexandro! Para um perfil que já está no Top 5, o artigo precisa ter um tom de autoridade técnica, mas também ser inspirador para a comunidade.

    Aqui está um esboço de alta performance focado na sua implementação de IA local com .NET.

    🚀 Além do CRUD: Integrando LLMs Locais (Llama 3) em APIs .NET 8

    Introdução

    O mercado de tecnologia está em um ponto de inflexão. Não basta mais saber construir APIs que apenas salvam e buscam dados; o desenvolvedor moderno precisa saber como integrar Inteligência Artificial de forma eficiente e segura. Neste artigo, compartilho como levei o desafio da trilha .NET Azure da DIO para o próximo nível, integrando o Ollama e o modelo Llama 3 para criar uma API com "cérebro" próprio.

    O Desafio: Da Estrutura à Inteligência

    O projeto base consistia em uma API de gerenciamento de colaboradores integrada ao Azure. No entanto, decidi aplicar o conceito de Data Sovereignty (Soberania de Dados). Em vez de consumir APIs pagas e externas, utilizei o Ollama para rodar um modelo de linguagem (LLM) diretamente na minha máquina.

    Destaques da Arquitetura:

    1. Injeção de Dependência: Utilizei interfaces para desacoplar o serviço de IA, permitindo que o sistema seja facilmente testável e escalável.
    2. HttpClient Factory: Configurei o Program.cs para gerenciar as requisições ao servidor local do Ollama, garantindo performance e resiliência.
    3. Prompt Engineering: Desenvolvi um prompt especializado para que a IA analise o cargo e o departamento do colaborador e gere um insight profissional personalizado em milissegundos.

    public interface IIAService {

      Task<string> GerarAnalisePerfilAsync(string nome, string cargo);

    }

    builder.Services.AddHttpClient<IIAService, OllamaService>(client => {

      client.BaseAddress = new Uri("http://localhost:11434/");

    });

    Por que IA Local?

    Muitas empresas hesitam em usar IA devido à privacidade dos dados. Ao rodar o Llama 3 localmente, garantimos que nenhuma informação sensível saia da infraestrutura da empresa. É o equilíbrio perfeito entre inovação e segurança.

    Share
    Recommended for you
    Globant  - Java & Spring Boot AI Developer
    Accenture - Python para Análise e Automação de Dados
    Lupo - Primeiros Passos com Inteligência Artificial
    Comments (0)
    Recommended for youCI&T - Do Prompt ao Agente