image

Accede a bootcamps ilimitados y a más de 650 cursos para siempre

Disponible sólo:

42 vacantes
Jefferson Melo
Jefferson Melo19/04/2026 20:22
Compartir
CI&T - Do Prompt ao AgenteRecomendado para tiCI&T - Do Prompt ao Agente

OpenClaw na Nuvem: Por que não faz sentido rodar isso na sua máquina

  • #Oracle Cloud
  • #Inteligência Artificial (IA)

image

O que é o OpenClaw?

No fim de 2025 surgiu no GitHub um projeto que parecia pequeno demais para gerar tanto barulho: um assistente de IA que executa tarefas em vez de responder a perguntas.

O nome mudou algumas vezes por questões legais, mas isso é detalhe. O que chamou atenção foi outra coisa: funcionava de verdade.

A diferença é gigante. Você não conversa com ele. Você pede e ele faz. Uma mensagem vira ação. Ler e-mails, responder, organizar agenda, rodar comandos, mexer em arquivos. Sem trocar de janela, sem etapa manual no meio.

Por baixo dos panos, vai um processo Node.js conectado a canais como Telegram, WhatsApp e Slack. O comportamento vem das "skills", arquivos em Markdown que ensinam o agente a usar ferramentas externas. O repositório comunitário já tem mais de 700 delas.

Onde ele começa a brilhar?

O ponto não é só executar. É continuar.

Diferente de um chatbot, ele mantém estado entre sessões. Lembra o que estava fazendo, entende contexto ao longo do tempo e age de forma recorrente sem precisar de nova instrução a cada passo.

Também não existe simulação de acesso. Ele trabalha com acesso real ao sistema de arquivos, ao terminal, a APIs e ao navegador. Isso muda a natureza da ferramenta. Deixa de ser interface e passa a ser processo com permissão para agir.

Quando o problema começa?

Comecei rodando local e tudo parecia promissor: está perto então posso ficar de olho nele, responde rápido, parece sob controle. Mas pouco tempo depois você começa a entender o problema real: você está dividindo sua escova de dentes com alguém que você mal conhece...

Ele roda dentro do mesmo ambiente que você usa no dia a dia, com acesso a arquivos pessoais, sessões abertas, credenciais armazenadas e histórico de uso. Ele não precisa invadir nada. Já está dentro.

E mais uma coisa: lembra de todas aquelas skills criadas pela comunidade que eu citei anteriormente? O risco não vem de um erro específico. Vem do alcance que o agente tem.

Colocando o OpenClaw na Solitária

O passo seguinte foi isolá-lo. Um hardware exclusivo para ele, controlado, onde ele pode ser o rei do próprio castelo. Até funciona, mas só resolve parte do problmea: se algo sair errado, o impacto não atinge a máquina principal.

Mas outros limites aparecem. O equipamento precisa ficar ligado o tempo todo, depende da sua rede local, depende de energia, e ainda limita o modelo que você consegue rodar. Esse último ponto é mais importante do que parece.

O modelo define o resultado

O OpenClaw executa. Quem decide como executar é o modelo de linguagem natural nos bastidores.

Modelos pequenos dão conta de tarefas simples. Começam a falhar quando entra ambiguidade, múltiplas etapas ou dependência de contexto mais longo. E workflows agenticos reais têm essas características o tempo todo.

Hoje, uma referência sólida para uso local é o recém lançado Gemma 4. A variante 26B usa arquitetura MoE, o que reduz o custo de execução sem comprometer tanto a qualidade. Para rodar bem via Ollama, você precisa de algo próximo de 15GB de VRAM. Isso já tira da categoria de hardware comum e torna a compra de um equipamento dedicado um rombo na carteira.

Onde a nuvem resolve

Depois de testar local e hardware dedicado, a solução mais estável foi mover para nuvem. Usei a Oracle Cloud Infrastructure com GPU, pela versatilidade, segurança e facilidade de uso e implementação. Os ganhos são diretos: isolamento completo da máquina pessoal, hardware adequado para modelos capazes, independência da rede local e disponibilidade constante. A instância VM.GPU.A10.1 entrega uma NVIDIA A10 com 24GB de VRAM, suficiente para rodar o Gemma 4 26B com folga para contextos longos.

Custo Real

A GPU não precisa ficar ativa o tempo todo. O OpenClaw suporta cron jobs nativamente, o que significa que você define exatamente quando o agente executa cada tarefa.

Um cenário razoável para quem está começando: Manhã, às 7h: o agente lê os e-mails recebidos desde a noite anterior, verifica a agenda do dia e manda um resumo pelo Telegram. Leva cerca de 3 minutos de GPU. Final do dia, às 17h: classifica os e-mails, sinaliza os que precisam de resposta e rascunha as respostas mais simples. Cerca de 5 minutos. À noite, às 21h: consolida compromissos mencionados em mensagens e atualiza a agenda. Cerca de 2 minutos.

Total por dia: aproximadamente 10 minutos de processamento ativo. No mês, isso dá em torno de 5 horas de GPU efetiva.

| Modo | Preço por hora | 5h no mês | Custo estimado |
|---|---|---|---|
| On-demand | $2,00 | 5h | ~$10 |
| Preemptível | $0,45 | 5h | ~$2,25 |

No modo preemptivo, a instância pode ser reclamada com 30 segundos de aviso, o que é aceitável para uso pessoal onde interrupções ocasionais não são críticas. Fora dos horários de execução, a instância fica ociosa ou pode ser desligada.

Para um usuário iniciante, o custo mensal fica na faixa de alguns dólares. À medida que você adiciona automações, o custo cresce de forma proporcional e previsível.

Uma nota sobre eficiência

Há uma forma de tornar o agente mais eficiente dentro do próprio OCI e reduzir ainda mais o custo de cada inferência, mas isso fica para o próximo artigo sobre o tema.

---

Tutorial: deploy na OCI com GPU

Ao final destes passos, você terá o OpenClaw rodando em uma instância com NVIDIA A10, o Gemma 4 carregado via Ollama e o acesso configurado via Tailscale, sem nenhuma porta pública exposta.

Pré-requisitos: conta Oracle Cloud Pay-As-You-Go, conta Tailscale gratuita, par de chaves SSH e cerca de 45 minutos.

Passo 1: Criar o compartimento

No console da Oracle Cloud, vá em Identity & Security > Compartments > Create Compartment. Nomeie como `openclaw-gpu` e confirme. Use esse compartimento em todos os passos seguintes.

Passo 2: Criar a Virtual Cloud Network

Crie a rede antes de criar a instância. Se tentar criar durante o setup, a opção de IP público pode ficar desabilitada.

Vá em Networking > Virtual Cloud Networks > Start VCN Wizard escolha "Create VCN with Internet Connectivity" e confirme.

Passo 3: Criar a instância GPU

Vá em Compute > Instances > Create Instance e configure:

- **Name:** openclaw
- **Image:** Ubuntu 22.04
- **Shape:** VM.GPU.A10.1 (em "Specialty and Previous Generation")
- **Boot volume:** 100 GB

Adicione sua chave SSH pública, confirme que a VCN do passo anterior está selecionada e que o IP público está ativo. Clique em Create e aguarde o status RUNNING. Anote o IP público.

Se aparecer "Out of capacity", tente outra região ou aguarde. Regiões menos populares costumam ter disponibilidade mais consistente.

Passo 4: Setup Automatizado Via Shell

Os passos seguintes (drivers, CUDA, Ollama, modelo, OpenClaw e Tailscale) podem ser executados com o script abaixo. Cole no terminal após conectar via SSH.

#!/bin/bash
set -e

echo "==> Atualizando sistema"
sudo apt update && sudo apt upgrade -y
sudo apt install -y build-essential ubuntu-drivers-common

echo "==> Instalando driver NVIDIA"
sudo ubuntu-drivers autoinstall

echo "==> Reiniciando para aplicar driver"
sudo reboot

Após o reboot, reconecte via SSH e rode o segundo bloco:

#!/bin/bash
set -e

echo "==> Verificando GPU"
nvidia-smi

echo "==> Instalando CUDA Toolkit"
sudo apt install -y cuda-toolkit-12-3
echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc

echo "==> Instalando Ollama"
curl -fsSL https://ollama.com/install.sh | sh

echo "==> Baixando Gemma 4 (17GB, aguarde)"
ollama pull gemma4:27b

echo "==> Testando modelo"
ollama run gemma4:27b "O que é um agente de IA? Responda em duas frases."

echo "==> Instalando Tailscale"
curl -fsSL https://tailscale.com/install.sh | sh
sudo tailscale up --ssh --hostname=openclaw

echo "==> Instalando OpenClaw"
curl -fsSL https://openclaw.ai/install.sh | bash

echo "==> Configurando gateway"
openclaw config set gateway.bind loopback
openclaw config set gateway.auth.mode token
openclaw doctor --generate-gateway-token
openclaw config set gateway.tailscale.mode serve
openclaw config set gateway.trustedProxies '["127.0.0.1"]'
systemctl --user restart openclaw-gateway.service

echo ""
echo "Setup concluido."
echo "Acesse a interface em: https://openclaw.SEU_TAILNET.ts.net"
echo "Configure o modelo: Provider=Ollama, URL=http://localhost:11434, Model=gemma4:27b"

Após o Tailscale ser instalado, o terminal vai gerar uma URL para autenticação. Abra no navegador, faça login e autorize o dispositivo antes de continuar.

Passo 5. Bloquear o firewall da VCN

No console da Oracle Cloud, vá em **Networking > Virtual Cloud Networks**, clique na VCN criada, depois em **Security Lists > Default Security List**.

Remova todas as regras de ingresso existentes e adicione apenas uma:

- **Source:** 0.0.0.0/0
- **Protocol:** UDP
- **Port:** 41641

Isso bloqueia SSH, HTTP e HTTPS na borda da rede. O acesso passa a ser exclusivamente via rede privada Tailscale.

Passo 6. Configurar os cron jobs

Na interface do OpenClaw, cada skill pode ter um gatilho de agendamento. Um ponto de partida razoável:

# Briefing matinal
0 7 * * * openclaw run skill:briefing-diario

# Revisão de e-mail
0 17 * * 1-5 openclaw run skill:revisao-email

# Consolidação de agenda
0 21 * * * openclaw run skill:agenda-consolidar

Com isso, a GPU entra em atividade três vezes por dia por alguns minutos e fica ociosa o restante do tempo.

Passo 7. Conectar o Canal de Mensagens

Para Telegram, acesse @BotFather, crie um bot com `/newbot` e copie o token. Na interface do OpenClaw, adicione o canal com esse token e envie uma mensagem para confirmar que o agente responde.

---

Então, o que temos aqui?

Um agente rodando em uma instância com GPU dedicada na Oracle Cloud, isolado da sua máquina pessoal, sem portas públicas expostas, com acesso seguro via Tailscale e custo mensal previsível.

O OpenClaw funciona - e funciona muito bem, obrigado. A moral da história é que o problema nunca foi a ferramenta em si, mas onde devemos rodá-la.

Jefferson Melo é Analista de Infraestrutura, Autista e AHSD. Além de Embaixador Universário DIO e Apprentice no programa Oracle Aces.
Compartir
Recomendado para ti
GFT - Fundamentos de Cloud com AWS
Bootcamp Afya - Automação de Dados com IA
Bootcamp NTT DATA: Backend Java com Spring AI
Comentarios (0)
Recomendado para tiCI&T - Do Prompt ao Agente