image

Acesse bootcamps ilimitados e +650 cursos pra sempre

Disponível apenas:

234 vagas
Jefferson Melo
Jefferson Melo19/04/2026 20:22
Compartilhe
CI&T - Do Prompt ao AgenteRecomendados para vocêCI&T - Do Prompt ao Agente

OpenClaw na Nuvem: Por que não faz sentido rodar isso na sua máquina

    image

    O que é o OpenClaw?

    No fim de 2025 surgiu no GitHub um projeto que parecia pequeno demais para gerar tanto barulho: um assistente de IA que executa tarefas em vez de responder a perguntas.

    O nome mudou algumas vezes por questões legais, mas isso é detalhe. O que chamou atenção foi outra coisa: funcionava de verdade.

    A diferença é gigante. Você não conversa com ele. Você pede e ele faz. Uma mensagem vira ação. Ler e-mails, responder, organizar agenda, rodar comandos, mexer em arquivos. Sem trocar de janela, sem etapa manual no meio.

    Por baixo dos panos, vai um processo Node.js conectado a canais como Telegram, WhatsApp e Slack. O comportamento vem das "skills", arquivos em Markdown que ensinam o agente a usar ferramentas externas. O repositório comunitário já tem mais de 700 delas.

    Onde ele começa a brilhar?

    O ponto não é só executar. É continuar.

    Diferente de um chatbot, ele mantém estado entre sessões. Lembra o que estava fazendo, entende contexto ao longo do tempo e age de forma recorrente sem precisar de nova instrução a cada passo.

    Também não existe simulação de acesso. Ele trabalha com acesso real ao sistema de arquivos, ao terminal, a APIs e ao navegador. Isso muda a natureza da ferramenta. Deixa de ser interface e passa a ser processo com permissão para agir.

    Quando o problema começa?

    Comecei rodando local e tudo parecia promissor: está perto então posso ficar de olho nele, responde rápido, parece sob controle. Mas pouco tempo depois você começa a entender o problema real: você está dividindo sua escova de dentes com alguém que você mal conhece...

    Ele roda dentro do mesmo ambiente que você usa no dia a dia, com acesso a arquivos pessoais, sessões abertas, credenciais armazenadas e histórico de uso. Ele não precisa invadir nada. Já está dentro.

    E mais uma coisa: lembra de todas aquelas skills criadas pela comunidade que eu citei anteriormente? O risco não vem de um erro específico. Vem do alcance que o agente tem.

    Colocando o OpenClaw na Solitária

    O passo seguinte foi isolá-lo. Um hardware exclusivo para ele, controlado, onde ele pode ser o rei do próprio castelo. Até funciona, mas só resolve parte do problmea: se algo sair errado, o impacto não atinge a máquina principal.

    Mas outros limites aparecem. O equipamento precisa ficar ligado o tempo todo, depende da sua rede local, depende de energia, e ainda limita o modelo que você consegue rodar. Esse último ponto é mais importante do que parece.

    O modelo define o resultado

    O OpenClaw executa. Quem decide como executar é o modelo de linguagem natural nos bastidores.

    Modelos pequenos dão conta de tarefas simples. Começam a falhar quando entra ambiguidade, múltiplas etapas ou dependência de contexto mais longo. E workflows agenticos reais têm essas características o tempo todo.

    Hoje, uma referência sólida para uso local é o recém lançado Gemma 4. A variante 26B usa arquitetura MoE, o que reduz o custo de execução sem comprometer tanto a qualidade. Para rodar bem via Ollama, você precisa de algo próximo de 15GB de VRAM. Isso já tira da categoria de hardware comum e torna a compra de um equipamento dedicado um rombo na carteira.

    Onde a nuvem resolve

    Depois de testar local e hardware dedicado, a solução mais estável foi mover para nuvem. Usei a Oracle Cloud Infrastructure com GPU, pela versatilidade, segurança e facilidade de uso e implementação. Os ganhos são diretos: isolamento completo da máquina pessoal, hardware adequado para modelos capazes, independência da rede local e disponibilidade constante. A instância VM.GPU.A10.1 entrega uma NVIDIA A10 com 24GB de VRAM, suficiente para rodar o Gemma 4 26B com folga para contextos longos.

    Custo Real

    A GPU não precisa ficar ativa o tempo todo. O OpenClaw suporta cron jobs nativamente, o que significa que você define exatamente quando o agente executa cada tarefa.

    Um cenário razoável para quem está começando: Manhã, às 7h: o agente lê os e-mails recebidos desde a noite anterior, verifica a agenda do dia e manda um resumo pelo Telegram. Leva cerca de 3 minutos de GPU. Final do dia, às 17h: classifica os e-mails, sinaliza os que precisam de resposta e rascunha as respostas mais simples. Cerca de 5 minutos. À noite, às 21h: consolida compromissos mencionados em mensagens e atualiza a agenda. Cerca de 2 minutos.

    Total por dia: aproximadamente 10 minutos de processamento ativo. No mês, isso dá em torno de 5 horas de GPU efetiva.

    | Modo | Preço por hora | 5h no mês | Custo estimado |
    |---|---|---|---|
    | On-demand | $2,00 | 5h | ~$10 |
    | Preemptível | $0,45 | 5h | ~$2,25 |
    

    No modo preemptivo, a instância pode ser reclamada com 30 segundos de aviso, o que é aceitável para uso pessoal onde interrupções ocasionais não são críticas. Fora dos horários de execução, a instância fica ociosa ou pode ser desligada.

    Para um usuário iniciante, o custo mensal fica na faixa de alguns dólares. À medida que você adiciona automações, o custo cresce de forma proporcional e previsível.

    Uma nota sobre eficiência

    Há uma forma de tornar o agente mais eficiente dentro do próprio OCI e reduzir ainda mais o custo de cada inferência, mas isso fica para o próximo artigo sobre o tema.

    ---

    Tutorial: deploy na OCI com GPU

    Ao final destes passos, você terá o OpenClaw rodando em uma instância com NVIDIA A10, o Gemma 4 carregado via Ollama e o acesso configurado via Tailscale, sem nenhuma porta pública exposta.

    Pré-requisitos: conta Oracle Cloud Pay-As-You-Go, conta Tailscale gratuita, par de chaves SSH e cerca de 45 minutos.

    Passo 1: Criar o compartimento

    No console da Oracle Cloud, vá em Identity & Security > Compartments > Create Compartment. Nomeie como `openclaw-gpu` e confirme. Use esse compartimento em todos os passos seguintes.

    Passo 2: Criar a Virtual Cloud Network

    Crie a rede antes de criar a instância. Se tentar criar durante o setup, a opção de IP público pode ficar desabilitada.

    Vá em Networking > Virtual Cloud Networks > Start VCN Wizard escolha "Create VCN with Internet Connectivity" e confirme.

    Passo 3: Criar a instância GPU

    Vá em Compute > Instances > Create Instance e configure:

    - **Name:** openclaw
    - **Image:** Ubuntu 22.04
    - **Shape:** VM.GPU.A10.1 (em "Specialty and Previous Generation")
    - **Boot volume:** 100 GB
    

    Adicione sua chave SSH pública, confirme que a VCN do passo anterior está selecionada e que o IP público está ativo. Clique em Create e aguarde o status RUNNING. Anote o IP público.

    Se aparecer "Out of capacity", tente outra região ou aguarde. Regiões menos populares costumam ter disponibilidade mais consistente.

    Passo 4: Setup Automatizado Via Shell

    Os passos seguintes (drivers, CUDA, Ollama, modelo, OpenClaw e Tailscale) podem ser executados com o script abaixo. Cole no terminal após conectar via SSH.

    #!/bin/bash
    set -e
    
    echo "==> Atualizando sistema"
    sudo apt update && sudo apt upgrade -y
    sudo apt install -y build-essential ubuntu-drivers-common
    
    echo "==> Instalando driver NVIDIA"
    sudo ubuntu-drivers autoinstall
    
    echo "==> Reiniciando para aplicar driver"
    sudo reboot
    

    Após o reboot, reconecte via SSH e rode o segundo bloco:

    #!/bin/bash
    set -e
    
    echo "==> Verificando GPU"
    nvidia-smi
    
    echo "==> Instalando CUDA Toolkit"
    sudo apt install -y cuda-toolkit-12-3
    echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
    echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
    source ~/.bashrc
    
    echo "==> Instalando Ollama"
    curl -fsSL https://ollama.com/install.sh | sh
    
    echo "==> Baixando Gemma 4 (17GB, aguarde)"
    ollama pull gemma4:27b
    
    echo "==> Testando modelo"
    ollama run gemma4:27b "O que é um agente de IA? Responda em duas frases."
    
    echo "==> Instalando Tailscale"
    curl -fsSL https://tailscale.com/install.sh | sh
    sudo tailscale up --ssh --hostname=openclaw
    
    echo "==> Instalando OpenClaw"
    curl -fsSL https://openclaw.ai/install.sh | bash
    
    echo "==> Configurando gateway"
    openclaw config set gateway.bind loopback
    openclaw config set gateway.auth.mode token
    openclaw doctor --generate-gateway-token
    openclaw config set gateway.tailscale.mode serve
    openclaw config set gateway.trustedProxies '["127.0.0.1"]'
    systemctl --user restart openclaw-gateway.service
    
    echo ""
    echo "Setup concluido."
    echo "Acesse a interface em: https://openclaw.SEU_TAILNET.ts.net"
    echo "Configure o modelo: Provider=Ollama, URL=http://localhost:11434, Model=gemma4:27b"
    

    Após o Tailscale ser instalado, o terminal vai gerar uma URL para autenticação. Abra no navegador, faça login e autorize o dispositivo antes de continuar.

    Passo 5. Bloquear o firewall da VCN

    No console da Oracle Cloud, vá em **Networking > Virtual Cloud Networks**, clique na VCN criada, depois em **Security Lists > Default Security List**.

    Remova todas as regras de ingresso existentes e adicione apenas uma:

    - **Source:** 0.0.0.0/0
    - **Protocol:** UDP
    - **Port:** 41641
    

    Isso bloqueia SSH, HTTP e HTTPS na borda da rede. O acesso passa a ser exclusivamente via rede privada Tailscale.

    Passo 6. Configurar os cron jobs

    Na interface do OpenClaw, cada skill pode ter um gatilho de agendamento. Um ponto de partida razoável:

    # Briefing matinal
    0 7 * * * openclaw run skill:briefing-diario
    
    # Revisão de e-mail
    0 17 * * 1-5 openclaw run skill:revisao-email
    
    # Consolidação de agenda
    0 21 * * * openclaw run skill:agenda-consolidar
    

    Com isso, a GPU entra em atividade três vezes por dia por alguns minutos e fica ociosa o restante do tempo.

    Conectar o Canal de Mensagens

    Para Telegram, acesse @BotFather, crie um bot com `/newbot` e copie o token. Na interface do OpenClaw, adicione o canal com esse token e envie uma mensagem para confirmar que o agente responde.

    ---

    Então, o que temos aqui?

    Um agente rodando em uma instância com GPU dedicada na Oracle Cloud, isolado da sua máquina pessoal, sem portas públicas expostas, com acesso seguro via Tailscale e custo mensal previsível.

    O OpenClaw funciona - e funciona muito bem, obrigado. A moral da história é que o problema nunca foi a ferramenta em si, mas onde devemos rodá-la.

    Jefferson Melo é Analista de Infraestrutura, Autista e AHSD. Além de Embaixador Universário DIO e Apprentice no programa Oracle Aces.
    Compartilhe
    Recomendados para você
    Globant  - Java & Spring Boot AI Developer
    Accenture - Python para Análise e Automação de Dados
    Lupo - Primeiros Passos com Inteligência Artificial
    Comentários (0)
    Recomendados para vocêCI&T - Do Prompt ao Agente