image

Bootcamps ilimitados + curso de inglês para sempre

80
%OFF
Article image
Fernando Pereira
Fernando Pereira27/06/2024 12:50
Compartilhe
WEX - End to End EngineeringRecomendados para vocêWEX - End to End Engineering

Comandos Power BI

  • #Power BI

Nesse artigo proposto para a 19ª edição de competição de artigos da DIO, compartilho parte da minha experiência com o tema na indústria siderúrgica, como pude usar o Power BI para monitorar um índice extremamente estratégico e gerar insights que realmente falam a linguagem de um negócio - o Custo de Não Qualidade.

O CoPQ (CoPQ, do inglês Cost of Poor Quality) ou CNQ (Custo da Não Qualidade), refere-se aos custos que uma empresa incorre, devido à produção de bens ou serviços que não atendem aos padrões de qualidade esperados.

Apresentar uma visão desse índice é estratégico, pois implica numa série de impactos negativos, que influenciam diretamente nos lucros de uma empresa.

Primeiro apresento os componentes desse índice:

O CoPQ pode ser dividido, de forma geral nas categorias abaixo, no entanto, considerando a dificuldade em obter dados de qualidade (Volume, variedade, velocidade e veracidade dos dados), cada empresa pode definir suas regras para esse cálculo, de forma resumida apresento as componentes desse indicador:

Custos de Falhas Internas:

·       Retrabalho;

·       Sucata;

·       Retrabalho de Materiais.

Custos de Falhas Externas:

·       Garantias e Devoluções;

·       Reclamações de Clientes;

·       Perda de Reputação;

Custos de Avaliação;

·       Inspeção e Testes;

·       Auditorias de Qualidade;

Custos de Prevenção:

·       Treinamento e Capacitação;

·       Manutenção de Equipamentos;

·       Desenvolvimento de Processos;

Utilizando o exemplo da empresa em que atuei, do segmento siderúrgico, por questões de diferentes ordens, restringi o estudo e desenvolvimento do indicador, às categorias de custos externos e internos.

O importante aqui, para geração de valor e para você prezado leitor, que eventualmente, esteja trilhando carreira na área de dados - como eu, é a geração de insights por meio da inteligência.

Para resolver (ou dar parte da resolução da temática de um problema), optou-se na semântica do cenário de estudo, por criar um índice R$/ton, ou seja, o quanto de dinheiro se perdia por cada tonelada de aço produzido na usina, em que atuei como analista da qualidade, numa das maiores siderúrgicas do mundo.

Dessa forma, a equação era compreendida da seguinte forma:

CNQ = (CFI + CFE) / QTD FATURADA

Sendo, o custo da não qualidade, definido nesse contexto, pela soma dos custos de falha interna e falhas externas, dividido pela qtd faturada.

O processo de ELT e obtenção das bases de dados

As fontes dos dados, vinham do SAP. Optou-se por um processo de ELT (Extract – Load – Treat), pela complexidade das regras de negócio basicamente.

Diversos movimentos dos lotes produzidos, eram traduzidos de diferentes formas nos registros do ERP, vale lembrar, que nesse caso por ter passado pela área de PCP nessa empresa, tinha bastante fluência com os dados gerados pelo SAP - o que me suportou na velocidade de implementação dessa solução.

Os dados provinham dos apontamentos da usina, que alimentavam um sistema MES, que por sua vez, alimentava o SAP.

Para resolver a enorme quantidade de transações que deveriam ser rodadas, para relacionar as chaves primárias com as chaves estrangeiras, recorreu-se ao uso de uma transação personalizada ao negócio – não fez parte do projeto, pois já dispúnhamos desse recurso, originado de outra entrega do negócio.

Essa transação, era um conglomerado de transações que rodavam em background durante a madrugada, desenvolvida em linguagem ABAP, e que nos entregava uma base de dados da ordem de milhões de linhas, que nos suportavam em diversas análises.

Dessa forma, utilizávamos o DBeaver para conectar ao banco e explorar com o uso de SQL, o uso de queries ‘ad-hoc’ ou genéricas para o contexto geral do relatório que geraríamos no Power BI - abaixo um breve diagrama exemplificando o fluxo dos dados.

image

Principais medidas criadas e fórmulas no DAX

Aqui elenco as principais medidas que utilizei e a fórmula no DAX utilizadas para gerar as curvas do indicador de CNQ.

Faturamento:

Faturamento em toneladas, por mês, recordo a importância de criar uma tabela calendário para pilotar as datas do relatório:

Faturamento = 
CALCULATE(
 SUM(Vendas[Faturamento]),
 VALUES(Vendas[DataFaturamento])
)

Sucata:

É a quantidade efetivamente lançada pela produção no SAP, como produção ruim, aqui foi importante o papel de discernir as corretas regras de negócio para o cálculo da medida e a escolha certa do processo de ELT ao invés de ETL.

Repare que na “CALCULATE” abaixo temos os critérios “4” e “5”, que correspondiam aos registros gerados pelo SAP, obedecendo ao contexto de negócio (4 = O operador categorizou como produção ruim antes de fechar a ordem; 5 = Após fechar a ordem).

A “CALCULATE” tem um poder de uso muito extensivo, pois possibilita o uso de condições diversas para criação de medidas, nessa ocasião construiu-se a medida da seguinte forma.

Qtd sucata = 
CALCULATE(
 SUM(tabelaSAP[Qtd]),
 Tabela SAP[Movimento] IN {4, 5}
)

Determinação do Custo padrão de produção

Para determinar o custo do aço, recorríamos ao departamento de custos, que com as metodologias apropriadas, forneciam um valor de CPP (Custo de produção padrão) para o período, esse seria o valor a multiplicar pela Qtd sucateada.

O índice CoPQ

Para o cálculo do índice, definiu-se a regra “Custo por volume faturado” e comparei de duas formas – usando o “DIVIDE” isoladamente e o emprego de variáveis como segue:

1)       Utilizando o “DIVIDE” isoladamente:

CoPQ-1 = 
DIVIDE(
 [Custo],
 [Faturamento]
)

2)       Emprego de variáveis:
CoPQ-2= 
VAR QtdSucateada = 
 CALCULATE(
     SUM(Vendas[Qtd]),
     Vendas[Movimento] IN {4, 5}
 )
VAR QtdFaturada = SUM(Vendas[Faturamento])
RETURN
 DIVIDE(QtdSucateada, QtdFaturada)

Diferenças práticas percebidas entre ambas as fórmulas desenvolvidas:

Ambos os métodos de escrita das medidas no DAX, após as validações, produziram o mesmo resultado intencionado, porém usar variáveis geralmente oferece vantagens em termos de clareza, facilidade de manutenção e potencial melhoria de desempenho.

Para medidas simples, a diferença pode ser mínima, mas para medidas mais complexas, o uso de variáveis pode facilitar muito o trabalho com DAX no Power BI.

A leitura do CoPQ / CNQ com o Power BI - Inteligência de negócio:

No fim disso tudo, de forma resumida, detinha-se a leitura do índice em formato de curva, com intuito de trabalhar em tendências, com a possibilidade de inferência do índice por categorias, fases de produção, ou qual o aço com o maior índice aparente de sucata, insights possíveis de serem gerados:

- A classe 41XX apresenta um custo de não qualidade mais elevada historicamente que o 10XX:

           - Quais iniciativas serão adotadas para as próximas produções?

- A comparação das curvas entre unidades coligadas:

           - O mesmo aço 41XX é mais barato de ser feito na unidade A, que na unidade B historicamente.

- A leitura de defeitos:

           - O aço 41XX é mais propenso a sofrer sucata por trincas térmicas que o 10XX.

E sugerir ações prescritivas, por exemplo:

           Baseado, que temos carteira do 41XX, para o próximo trimestre, precisamos em conjunto com a engenharia de processos, conduzir ações de avaliação da efetividade dos controles de trincas térmicas para o próximo pacote de pedidos, dentre outros...

image

image

Nota: Os dados acima apresentados são hipotéticos! Não refletem a realidade do estudo, uma vez que esse artigo busca exemplificar possibilidades e jamais, expor dados sensíveis que não são de minha propriedade.

Conclusões:

O Power BI quanto empregado com o uso de conceituais de negócios é muito poderoso!

Há que se ressaltar, nesse estudo os desafios, a disponibilidade dos dados e as formas de se lidar com o processo de ELT como considerei anteriormente a velocidade, volume, variedade e veracidade na geração e manipulação dos dados.

O Power BI, nesse caso, com poucas medidas permitiu, que eu conseguisse gerar uma narrativa sólida e poderosa das informações do negócio, a notar em que, com o uso da “CALCULATE”, “DIVIDE” e o uso de tabelas calendário e as corretas agregações e relacionamentos, considerando chave primária e estrangeira, pôde-se obter uma boa leitura do índice a partir de então.

Por fim deixo aqui então, uma contribuição minha para você caro leitor e para a competição de artigos da DIO.

Nesse artigo compartilhei, de forma breve, um exemplo meu, de como o domínio da tecnologia me possibilitou, gerar valor através de visibilidade dos problemas e tratativa das possíveis causas, de problemas de negócios, usando diretrizes de tomada de ações “Data-driven” e premissas de geração de valor para o negócio.

Espero poder ter agregado, ademais deixo uma indicação de leitura sobre o tema>

Indicação de fonte/leitura sobre o tema "Custo da Não Qualidade":

MORSE, Wayne J. A Handle on Quality Costs, Management Accounting

Magazine. February, 1993.

Obrigado.

Fernando Henrique Pereira

Enginneer / Manufacturing / Production / Industrial / Power BI / Data analysis / Dashboards / KPIs / QMS / Quality / Audit / Operational Excellence / LSS
Conecte-se comigo pelo In: www.linkedin.com/in/fernandohpereira1
Compartilhe
Recomendados para você
Suzano - Análise de Dados com Power BI
WEX - End to End Engineering
Microsoft 50 Anos - Prompts Inteligentes
Comentários (1)
Diego Cordeiro
Diego Cordeiro - 27/06/2024 13:47

Ótimo conteúdo, parabéns pelo artigo Fernando!

Recomendados para vocêWEX - End to End Engineering