Regras da inteligência artificial: como usá-la sem correr riscos legais
Você já usou alguma ferramenta de inteligência artificial para escrever um e-mail, criar uma imagem ou automatizar uma tarefa no trabalho? Se a resposta for sim, você está em boa companhia — milhões de pessoas e empresas fazem isso todos os dias.
O problema é que muita gente usa essas ferramentas sem saber que existem regras do jogo. E quem não conhece as regras corre o risco de sair perdendo — inclusive na Justiça.
A IA chegou antes da lei
O Brasil ainda não tem uma lei específica para regular a inteligência artificial — o PL 2338/2023 está em discussão no Congresso, mas ainda não foi aprovado. Isso não significa, porém, que o uso de IA seja uma terra sem lei.
Mesmo sem uma lei própria de IA, já existem regras que se aplicam diretamente ao tema: a LGPD (Lei Geral de Proteção de Dados), o Código de Defesa do Consumidor, a Lei de Direitos Autorais e o Marco Civil da Internet.
Ou seja: se você usar uma IA de forma irresponsável, pode responder civilmente — e, em alguns casos, até criminalmente.
O que pode dar errado?
1. Violação de dados pessoais: inserir informações de clientes, funcionários ou parceiros em ferramentas de IA sem avaliar como esses dados serão tratados pode violar a LGPD — e gerar multas de até 2% do faturamento da empresa.
2. Plágio e direitos autorais: usar textos, imagens ou músicas geradas por IA sem verificar a origem pode resultar em processos por uso indevido de obras protegidas.
3. Desinformação e deepfake: criar conteúdos falsos — incluindo imagens e vídeos manipulados de pessoas reais — pode configurar crimes como difamação, calúnia ou até fraude.
4. Discriminação algorítmica: sistemas de IA que tomam decisões sobre pessoas (contratações, concessão de crédito, diagnósticos) podem reproduzir preconceitos e gerar responsabilidade por danos.
5. Responsabilidade por erros da IA: se você apresenta uma análise jurídica, médica ou financeira gerada por IA como se fosse sua, a responsabilidade pelo conteúdo é sua — não da ferramenta.
Boas práticas que fazem diferença
✓ Leia os termos de uso das plataformas que você usa. Entenda como seus dados (e os dados dos seus clientes) são armazenados e utilizados.
✓ Nunca insira dados sensíveis — CPF, dados de saúde, informações sigilosas de negócios — em ferramentas sem saber o que acontece com elas depois.
✓ Revise sempre o que a IA produz. Erros, vieses e informações desatualizadas são comuns. A responsabilidade final é de quem assina o conteúdo.
✓ Seja transparente quando usar IA em produtos ou serviços que impactam outras pessoas. A tendência regulatória global é exigir isso.
✓ Implemente uma política interna de uso de IA na sua empresa. Define o que pode, o que não pode e quem é responsável por cada uso.
⚠️ Atenção especial para quem usa IA em processos que afetam direitos de pessoas — admissão, crédito, seguros, saúde. Nesses casos, a tendência regulatória é exigir explicabilidade: a decisão tomada pela máquina precisa poder ser explicada e contestada.
O que vem por aí
O projeto de lei em tramitação no Brasil se inspira no modelo europeu — o chamado AI Act — e classifica os sistemas de IA por nível de risco. Quanto maior o risco ao direito das pessoas, maiores as obrigações para quem desenvolve ou usa a ferramenta.
Empresas que saírem na frente — adotando boas práticas agora — vão ter muito menos trabalho quando a lei chegar. E vão se diferenciar no mercado por isso.
A inteligência artificial é uma das ferramentas mais poderosas que já tivemos à disposição. Como toda ferramenta poderosa, pede responsabilidade de quem a usa.
Conhecer os riscos não é motivo para evitar a IA — é motivo para usá-la melhor.



