Central de Atendimento
42 3220-2666
Ponta Grossa – PR
11 3606-5700
São Paulo – SP

Blog

Big Data Aplicado à Logística

Programas de computador que fazem a análise de Big Data dos dados da empresa e, quando possível, da cadeia de suprimentos

Big Data é uma expressão criada para designar a enorme quantidade de dados que o mundo gera a cada segundo. São milhões de terabytes que invadem a Internet num mero piscar de olhos. Aliás, já estamos em tempos de yottabytes (o equivalente a 1024 zettabytes, mas depois falamos sobre isso). Analisar tanta coisa assim exige um esforço considerável em Tecnologia da Informação. Hoje isso é possível e vem sendo feito dentro da Logística 4.0.

Os programas de computador que fazem a análise de Big Data dos dados da empresa e, quando possível, da cadeia de suprimentos a que ela está vinculada, representam um investimento considerável em termos financeiros. Porém eles facilitam muito a vida dos gestores, ganhando tempo e reduzindo despesas.

Estamos falando de um programa de computador capaz de analisar dados estruturados (devidamente organizados e prontos para a interpretação) e não estruturados (registros dispersos e de diferentes origens, que precisam passar por um processo de classificação). Esse software permite que a condução da suplly chain seja muito mais racional.

O Big Data é usado em Logística para controlar estoques, ajustar o fluxo de distribuição e rotas de transporte, evitar possíveis fraudes tanto no inventário de produtos quanto na movimentação de mercadorias, realizar a manutenção preventiva de sistemas e máquinas e também para facilitar o atendimento personalizado aos clientes, além de outras coisas.

A otimização das tarefas citadas no parágrafo anterior só é possível graças à mineração de dados em sistemas de operações tradicionais das empresas, atividades de frotas de transportes, informações meteorológicas e de trânsito, previsões econômicas, comportamento on-line dos consumidores e alertas de desabastecimento dos pontos de vendas.

Veja agora algumas vantagens em aplicar o Big Data à Logística de sua empresa:

  • Aumento da eficiência operacional, graças à análise dinâmica de diferentes dados;
  • Maior previsibilidade das demandas sazonais;
  • Maior volume de informações sobre a cadeia de suprimentos, quando os parceiros entendem a importância da integração de dados;
  • Modelagem das redes de distribuição, criando alternativas mais econômicas;
  • Melhora no gerenciamento da Last Mile, desenvolvendo rotas mais eficientes e maximizando o rendimento da frota;
  • Redução de custos, cortando desperdícios e encontrando soluções mais adequadas para cada problema identificado;
  • E, por fim, aumento da satisfação do cliente, que passa a ter uma experiência de compra mais agradável.

 

Parece simples. Mas não é. As ferramentas que fazem a análise dessas enxurradas de terabytes se baseiam em cinco princípios fundamentais do Big Data, que definem sua natureza estrutural:

  1. VOLUME: ou seja, a grande quantidade de dados gerados pelas empresas durante suas operações diárias;
  2. VARIEDADE: tais dados vêm das mais diferentes fontes e precisam por vezes de análises diferenciadas com base em sua origem, por isso a ferramenta digital escolhida deve ser capaz de fazer essa interpretação;
  3. VELOCIDADE: imagine várias avalanches vindo de diversas montanhas ao mesmo tempo na sua direção. Pois bem, o software escolhido deve ser capaz de lidar com todo esse volume de dados de diferentes origens no menor tempo possível dentro das especificidades do seu negócio;
  4. VERACIDADE: aqui estamos falando da qualidade dos dados obtidos, bem como de sua confiabilidade e precisão;
  5. VALOR: após a devida análise é preciso entender a utilidade de tais informações e que resultados positivos elas podem gerar. Isso obrigatoriamente depende de avaliação humana.

Após assimilar esses cinco princípios, é preciso tomar alguns cuidados a mais na hora de comprar uma ferramenta desse porte para a sua empresa. Vá atrás de um software que, entre outras coisas, obedeça à regulamentação do setor (em particular a Lei Geral de Proteção de Dados), que permita montar planos de ação em caso de ciberataques, que defina quem terá acesso aos dados, que utilize o Machine Learning para analisar várias possiblidades ao mesmo tempo e que, por fim, identifique problemas, criando alertas sempre que eles forem identificados.

Os conselhos acima são importantes. No entanto antes de efetuar a compra de um software de Big Data devemos ter a humildade de fazer um planejamento prévio, com o intuito de não errar na escolha do produto:

  • Crie um plano de ação com prazos para a execução de cada etapa, a elaboração de contingências e a definição do pessoal responsável. Determine também qual é a expectativa de funcionamento do programa ao final da implantação. Assim é possível traçar quem serão os principais usuários, quando as atualizações serão necessárias e ainda quais serão os diferentes níveis de acesso;
  • Simultaneamente, pense no desenvolvimento de uma cultura voltada a análise de dados ou data driven. Simplificando, sua equipe deve interagir com essa nova ferramenta;
  • Procure também capacitar seus colaboradores e ouvir a opinião deles. Não basta investir em tecnologia. É preciso também pensar em Recursos Humanos;
  • Após essa primeira análise, sua equipe de planejamento provavelmente vai sugerir um produto que se adapte ao seu porte operacional. Nem sempre o software mais robusto é o melhor para a sua empresa. O time que você montou deve fazer uma estimativa do volume de dados a ser utilizado para então procurar a versão digital mais apropriada a sua realidade;
  • Para facilitar a escolha você pode pesquisar que ferramentas de Big Data outras empresas do setor estão usando. Em Logística, a prática de benchmarking é muito comum;
  • Com esses dados em mãos, defina um orçamento para adquirir e implantar o produto;
  • Escolha uma empresa tão ágil no pós-venda quanto o Big Data promete ser na análise de dados (ou quase isso).

BÔNUS DE LEITURA: CURIOSIDADES!

O primeiro relato sobre o processamento de uma grande quantidade de dados data de 1663, Nesse ano, John Graunt utilizou um considerável volume de informações, de diferentes fontes, para estudar a epidemia da peste bubônica na Europa, que foi a primeira pandemia registrada na História. Depois disso, o primeiro relato sobre o uso de equipamentos para tabular dados ocorreu em 1890, nos Estados Unidos, em virtude no censo demográfico norte americano.

A primeira máquina digital criada para processar uma grande quantidade de dados foi construída na Inglaterra, em 1943. O computador, chamado de Colossus, podia interceptar 5000 caracteres por minuto e foi vital no esforço dos Aliados para derrotar os nazistas durante a Segunda Guerra Mundial. A Alemanha tinha um sistema criptografado que era considerado indecifrável, até então.

Em 1989, o cientista britânico Tim Berners-Lee criou o World Wide Web, com o objetivo de facilitar a troca de informações entre as pessoas. O que Berners-Lee não sabia era que sua invenção acabaria revolucionando a forma como os dados eram gerados e a quantidade dos mesmos.

Já o termo Big Data foi usado pela primeira vez só em 1997, mas a expressão só começou a ser aplicado de fato a partir de 2005, quando Roger Magoulas, da O’Reilly Media, publicou um artigo falando sobre o assunto.

E nunca se produziu tanta informação como nos dias de hoje. Por isso foi necessário criar expressões que indicassem uma medida virtual de dados. Por curiosidade, acompanhe a tabela a baixo, retirada do site infowester.com:

  • “1 Byte = 8 bits
  • 1 Kilobyte (KB) = 1024 bytes
  • 1 Megabyte (MB) = 1024 kilobytes
  • 1 Gigabyte (GB) = 1024 megabytes
  • 1 Terabyte (TB) = 1024 gigabytes
  • 1 Petabyte (PB) = 1024 terabytes
  • 1 Exabyte (EB) = 1024 petabytes
  • 1 Zettabyte (ZB) = 1024 exabytes
  • 1 Yottabyte (YB) = 1024 zettabytes”

Para se ter uma ideia de tais dimensões, UM exabyte equivale a UM BILHÃO de gigabytes!

Ficamos por aqui! Um abraço e até a próxima!