image

Bolsas de estudo DIO PRO para acessar bootcamps ilimitados

Disponible sólo:

527 vacantes
Article image
Alexandro Andrade
Alexandro Andrade09/04/2026 09:28
Compartir
CI&T - Do Prompt ao AgenteRecomendado para tiCI&T - Do Prompt ao Agente

Além do CRUD: Integrando LLMs Locais (Llama 3) em APIs .NET 8go

  • #.NET
  • #.NET Core
  • #.NET MAUI
  • #.NET C#
  • #IA Generativa
  • #.NET 5

Excelente, Alexandro! Para um perfil que já está no Top 5, o artigo precisa ter um tom de autoridade técnica, mas também ser inspirador para a comunidade.

Aqui está um esboço de alta performance focado na sua implementação de IA local com .NET.

🚀 Além do CRUD: Integrando LLMs Locais (Llama 3) em APIs .NET 8

Introdução

O mercado de tecnologia está em um ponto de inflexão. Não basta mais saber construir APIs que apenas salvam e buscam dados; o desenvolvedor moderno precisa saber como integrar Inteligência Artificial de forma eficiente e segura. Neste artigo, compartilho como levei o desafio da trilha .NET Azure da DIO para o próximo nível, integrando o Ollama e o modelo Llama 3 para criar uma API com "cérebro" próprio.

O Desafio: Da Estrutura à Inteligência

O projeto base consistia em uma API de gerenciamento de colaboradores integrada ao Azure. No entanto, decidi aplicar o conceito de Data Sovereignty (Soberania de Dados). Em vez de consumir APIs pagas e externas, utilizei o Ollama para rodar um modelo de linguagem (LLM) diretamente na minha máquina.

Destaques da Arquitetura:

  1. Injeção de Dependência: Utilizei interfaces para desacoplar o serviço de IA, permitindo que o sistema seja facilmente testável e escalável.
  2. HttpClient Factory: Configurei o Program.cs para gerenciar as requisições ao servidor local do Ollama, garantindo performance e resiliência.
  3. Prompt Engineering: Desenvolvi um prompt especializado para que a IA analise o cargo e o departamento do colaborador e gere um insight profissional personalizado em milissegundos.

public interface IIAService {

  Task<string> GerarAnalisePerfilAsync(string nome, string cargo);

}

builder.Services.AddHttpClient<IIAService, OllamaService>(client => {

  client.BaseAddress = new Uri("http://localhost:11434/");

});

Por que IA Local?

Muitas empresas hesitam em usar IA devido à privacidade dos dados. Ao rodar o Llama 3 localmente, garantimos que nenhuma informação sensível saia da infraestrutura da empresa. É o equilíbrio perfeito entre inovação e segurança.

Compartir
Recomendado para ti
Globant  - Java & Spring Boot AI Developer
Accenture - Python para Análise e Automação de Dados
Lupo - Primeiros Passos com Inteligência Artificial
Comentarios (0)
Recomendado para tiCI&T - Do Prompt ao Agente