image

Bolsas de estudo DIO PRO para acessar bootcamps ilimitados

Disponível apenas:

291 vagas
Carlos Lima
Carlos Lima05/05/2025 13:53
Compartilhe
Microsoft Azure Cloud Native 2026Recomendados para vocêMicrosoft Azure Cloud Native 2026

Desenvolvi uma aplicação para "conversar" com meus artigos da DIO

    Imagine uma situação onde você gostaria de obter insights de diversos sites de forma simultânea. Esta era a minha inquietação. Para solucionar isto, comecei a planejar uma plataforma onde eu poderia submeter o site e obter algumas informações via LLM. É possível ver o planejamento (Mapa) na Figura 1.

    image

    No repositório consta também o processo que uso para modelar as aplicações. O Sprint, ele é constituído de cinco etapas e foi pensado para ser uma adaptação do Design Thinking. Os seus criadores Jake Knapp e J. Zaretsky criaram na época em que trabalhavam no Google. Se tornando um framework principal da empresa para o desenvolvimento de ideias. É possível visualizar o framework na Figura 2.

    image

    Em prototipagem eu uso Streamlit para deployment e para UI. Possibilita que eu dedique mais tempo para outras atividades da Engenharia de IA, sendo elas:

    • Escolha do modelo (Mistral)
    • Parâmetros (Temperatura, etc)
    • Flow (Quantidade de Tokens)
    • Data (Conteúdo que será analisado pelo LLM)
    • Criação do Prompt
    • Etc

    Na Figura 3 é possível ver a interface final, com os campos planejados no Sprint. É possível notar diferenças e limitações, uma vez que é um trabalho em progresso.

    image

    Eu selecionei um dos meus trabalhos na DIO para que ele pudesse extrair as situações mais relevantes. Podemos observar o resultado na Figura 4.

    image

    É possível estender para jornais, blogs ou qualquer outra coisa a qual seja possível extrair o texto. No futuro o meu plano é indexar vários sites e obter insights valiosos em relação ao que cada um contém. 

    image

    Compartilhe
    Recomendados para você
    Riachuelo - Cibersegurança
    Microsoft Certification Challenge #5 - AZ-204
    Microsoft Certification Challenge #5 - DP 100
    Comentários (2)
    Carlos Lima
    Carlos Lima - 06/05/2025 23:52

    Sempre quantidade de Tokens. Lidando com LLMs é geralmente onde há maior impasse. Seja na experiência do usuário (tempo de resposta ao user) ou na limitação natural. Sabemos que, há uma quantidade máxima de tokens que o modelo recebe, na arquitetura original (transformers) este valor era de 512. Saber disto, requer entender como o user reagirá a aplicação para então definir o valor. Nesse caso, mais sites, mais tokens, maior delay ou mal funcionamento da aplicação.

    DIO Community
    DIO Community - 06/05/2025 11:34

    Carlos, seu artigo sobre a aplicação para "conversar" com os artigos da DIO utilizando LLMs é uma iniciativa muito interessante! A forma como você aplicou o Sprint, inspirado no Design Thinking, para estruturar o processo de desenvolvimento é uma abordagem sólida e eficiente para gerar insights.

    Com isso em mente, você acredita que o uso de LLMs pode ser uma solução escalável para processar e obter insights de múltiplos sites simultaneamente? E, no seu projeto, quais seriam os principais desafios que você espera enfrentar ao indexar uma maior quantidade de sites e extrair informações automaticamente?

    Recomendados para vocêMicrosoft Azure Cloud Native 2026