Resolvendo o problema de previsão de demanda com Análise de Dados e IA
Tabela de Conteúdos
- Introdução
- Preparação dos Dados Fonte
- Configuração do Google Analytics
- Configuração do BigQuery
- Preparação dos Dados para o Vertex AI
- Configuração do Vertex AI
- Criação do Modelo de Previsão
- Treinamento do Modelo
- Geração de Previsões
- Resultados e Conclusão
📈 Demand Forecasting com Análise de Dados e IA
Neste artigo, vamos explorar um estudo de caso sobre previsão de demanda com análise de dados e inteligência artificial (IA). Vamos analisar um site de comércio eletrônico que utiliza o Google Analytics para capturar eventos que ocorrem no site. Um dos tipos de eventos de interesse para este estudo de caso é o início do processo de checkout, que indica a intenção do usuário de comprar um produto. Utilizaremos os dados do Google Analytics, alimentados pelo BigQuery, para obter as informações necessárias. Em seguida, iremos transformar esses dados no formato adequado e alimentá-los no Vertex AI, onde utilizaremos um modelo de previsão para estimar as vendas, mais especificamente os eventos de checkout, que ocorrem no site. Esse processo nos ajudará a resolver o problema de previsão de demanda.
1. Introdução
Antes de começarmos, vamos entender melhor o contexto e os objetivos deste estudo de caso. Nosso objetivo é prever a quantidade de eventos de checkout que ocorrem em um site de comércio eletrônico. Para isso, iremos utilizar técnicas de análise de dados e inteligência artificial. O Google Analytics será a principal fonte de dados para capturar esses eventos, e iremos alimentar essas informações no BigQuery para preparação dos dados. Em seguida, utilizaremos o Vertex AI para criar um modelo de previsão e obter os resultados desejados.
2. Preparação dos Dados Fonte
Antes de começarmos com as configurações específicas do Google Analytics e BigQuery, é importante entender como preparar os dados fonte para garantir que tenhamos as informações corretas para nosso modelo de previsão. O Google Analytics captura uma variedade de eventos, mas para este estudo de caso, estamos interessados apenas nos eventos de início do processo de checkout. Portanto, precisamos extrair apenas os registros com eventos de "begin checkout".
Para isso, iremos utilizar uma consulta simples no BigQuery para extrair esses registros especificamente. Vamos agrupar os dados por dia, de forma que possamos ter um registro que indique quantos eventos de checkout ocorreram em um determinado dia. O resultado será um conjunto de dados com duas colunas: data e número de checkouts que ocorreram naquele dia.
3. Configuração do Google Analytics
Agora que temos os dados de eventos de início do checkout no formato adequado, precisamos configurar o Google Analytics para capturar esses eventos e vinculá-los ao BigQuery. Para fazer isso, acesse o painel de administração do Google Analytics e localize a seção de vinculação de produtos. Dentro dessa seção, encontre a opção de vinculação do BigQuery e siga as etapas para vincular o projeto do BigQuery desejado. Defina a frequência de atualização como diária e confirme a configuração.
A partir desse momento, você começará a receber um feed diário do Google Analytics no BigQuery. Esses dados serão a base para nossa previsão de demanda.
4. Configuração do BigQuery
Agora que os dados do Google Analytics estão sendo enviados para o BigQuery regularmente, podemos explorar a estrutura desses dados para entender melhor como eles estão organizados. No BigQuery, você encontrará um conjunto de dados chamado "events" que contém todos os eventos registrados no site. Para o nosso caso de uso, queremos extrair apenas os eventos de "begin checkout".
Através de uma consulta no BigQuery, podemos filtrar os registros para retornar apenas os eventos de início do processo de checkout. Essa etapa é importante para garantir que estamos trabalhando apenas com os dados relevantes para a previsão de demanda. A consulta agrupará os eventos por dia e mostrará a contagem de checkouts em cada dia.
5. Preparação dos Dados para o Vertex AI
Agora que temos os dados de eventos de checkout no formato necessário, podemos Prepará-los para serem utilizados no Vertex AI. O Vertex AI requer uma estrutura de dados com quatro colunas: data, identificador (ID), valor da previsão (y) e uma covariância (holiday), que pode ser utilizada como uma variável de controle, como por exemplo, indicando se é um dia de feriado.
Utilizaremos os dados de eventos de checkout existentes e faremos pequenas modificações para ajustá-los à estrutura exigida pelo Vertex AI. Será necessário adicionar uma coluna de ID, que pode ser usada para identificar cada registro exclusivamente. A coluna de valor da previsão (y) será preenchida com a contagem de checkouts para cada dia. A coluna de covariância (holiday) terá um valor padrão para este caso de uso.
Essa etapa é essencial para garantir que os dados estejam formatados corretamente para serem utilizados pelo Vertex AI e que sejam representativos da demanda que queremos prever.
6. Configuração do Vertex AI
Agora que os dados estão prontos, podemos prosseguir com a configuração do Vertex AI. O Vertex AI é a plataforma em que iremos criar nosso modelo de previsão e obter os resultados desejados.
Ao acessar o Vertex AI, vá para a seção de modelos de previsão e verifique em qual região você está executando o serviço, pois isso é importante para garantir que o bucket de armazenamento esteja na mesma região que os dados. Em seguida, crie um conjunto de dados e faça o upload dos dados formatados que preparamos anteriormente.
7. Criação do Modelo de Previsão
Agora que temos o conjunto de dados configurado e carregado no Vertex AI, podemos começar a criar o modelo de previsão. Para isso, seguiremos a opção de auto ML, que nos permitirá criar um modelo utilizando o conjunto de dados que acabamos de criar.
Defina um nome para o modelo e escolha o conjunto de dados que criamos anteriormente. Em seguida, indique a coluna que queremos prever (y) e as colunas de identificação (ID) e data (ds). Leve em consideração a granularidade dos dados, que nesse caso é diária. Defina um período de 7 dias para a janela de contexto.
Continue com as outras opções fornecidas, como a coluna de covariância (holiday) e o objetivo de otimização. Neste caso, queremos minimizar o erro médio absoluto. Depois de definir todas as opções, inicie o treinamento do modelo.
8. Treinamento do Modelo
O treinamento do modelo pode levar algumas horas, dependendo do volume de dados que você possui. Após o treinamento ser concluído, você receberá um e-mail informando que o modelo está pronto para ser usado.
É importante destacar que este modelo foi criado com base nos dados fornecidos, que são um exemplo e podem não apresentar a melhor precisão. Com um conjunto de dados de Alta qualidade e refinando os parâmetros do modelo, é possível obter resultados mais precisos.
9. Geração de Previsões
Com o modelo treinado e pronto, podemos gerar previsões de demanda. Selecione a opção de geração em lote (batch) e defina um nome para a geração. Utilize o modelo de previsão que criamos anteriormente e escolha o arquivo CSV que contém os dados de entrada para as sete próximas dias. Indique o formato de saída como uma tabela no BigQuery e conclua a configuração.
A geração em lote levará algum tempo para ser concluída. Assim que estiver pronta, você receberá um e-mail com os resultados. Ao verificar os conjuntos de dados, você notará que há um conjunto de dados de previsão e um de erro. O conjunto de dados de previsão contém os valores previstos para a quantidade de checkouts em cada dia.
10. Resultados e Conclusão
Neste estudo de caso, exploramos o processo de previsão de demanda utilizando análise de dados e inteligência artificial. Configuramos o Google Analytics para capturar e vincular dados ao BigQuery, preparamos os dados para o Vertex AI e criamos um modelo de previsão. Em seguida, treinamos o modelo e geramos previsões de demanda para os próximos sete dias.
É importante lembrar que os resultados obtidos dependem da qualidade dos dados utilizados e da configuração do modelo. Com mais dados e ajustes, é possível obter previsões cada vez mais precisas, o que pode ser extremamente útil para empresas que desejam planejar sua logística e estoque de forma mais eficiente.
Esperamos que este estudo de caso tenha fornecido uma visão geral do processo de previsão de demanda com uso de análise de dados e inteligência artificial. A aplicação dessas técnicas pode trazer benefícios significativos para empresas de diversos setores, permitindo uma melhor gestão de estoque, planejamento de produção e atendimento da demanda dos clientes.