Skip to content

lesantana/talknotes

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

10 Commits
 
 
 
 

Repository files navigation

Fabric Workshop - São Paulo

Bem-vindo à página wiki do Fabric Workshop. Esta página contém todos os links de que você precisará para o conteúdo de hoje, além de quaisquer alterações ou soluções alternativas que possam ser necessárias. Esperamos que você aproveite o dia!

Links

Portais:

Conteúdo Original:

Acesso ao laboratório:

Conteúdos de Fabric para Parceiros:

Alguns highlights sobre o Fabric noBuild:

Agenda

Note: in today's workshop, we are skipping Lab 03: Building a DW using Pipelines.

image


Lab Notes

Existem algumas alterações nos laboratórios que são abordadas nas notas abaixo.

LAB 01: Ingesting Data using RTA

Exercise 1: Environment Setup

A aplicação responsável por gerar os dados que vamos utilizar nesse laboratório usa um Azure Container Instance e um Event Hub, ambos já estão implatados no Azure. Porem, se você quiser implantar isso por conta própria, poderá fazê-lo usando sua própria assinatura do Azure (cerca de US$ 1,70/dia) ou utilizar uma avaliação gratuita do Azure Pass usando o código promocional que está disponível na guia Recursos. No entanto, para ajudar a simplificar, você pode utilizar a aplicação que já está executando, você não precisará de acesso ao Azure. Os detalhes da conexão estão incluídos aqui - cada participante é atribuído a um Consumer Group.

Se estiver usando o Event Hub do grupo, você só precisará executar essas tarefas abaixo:

  • Tarefa 1: Faça login na conta do Power BI e inscreva-se para a avaliação gratuita do Microsoft Fabric
  • Tarefa 2: Iniciar a avaliação do Microsoft Fabric
  • Pular a tarefa 3: resgatar o Azure Pass
  • Pular a tarefa 4: atribuição de função de colaborador do Log Analytics
  • Pular a tarefa 5: criar conta de armazenamento
  • Tarefa 6: Criar a workspace do Fabric
    • Ao nomear sua workspace, você provavelmente precisará tornar o nome globalmente exclusivo. Em vez de "RealTimeWorkspace", adicione suas iniciais, seu primeiro nome ou altere o nome como achar melhor. Todos os itens do workshop de hoje irão para essa workspace.
  • Pular a tarefa 7: implantar o aplicativo por meio da instância de contêiner do Azure
  • Tarefa 8: Obter dados com o Eventstream

Se você quiser implantar o aplicativo gerador de ações por conta própria, siga estas etapas:

  • Tarefa 1: Entre na conta do Power BI e inscreva-se para a avaliação gratuita do Microsoft Fabric
  • Tarefa 2: Iniciar a avaliação do Microsoft Fabric
  • Tarefa 3: Resgatar o Azure Pass
  • Pular a tarefa 4: Atribuição de função de colaborador do Log Analytics
  • Pular a tarefa 5: criar conta de armazenamento
  • Tarefa 6: Criar a workspace do Fabric
    • Ao nomear sua workspace, você provavelmente precisará tornar o nome globalmente exclusivo. Em vez de "RealTimeWorkspace", adicione suas iniciais, seu primeiro nome ou altere o nome como achar melhor. Todos os itens do workshop de hoje irão para essa workspace.
  • Tarefa 7: Implantar o aplicativo por meio da Instância de Contêiner do Azure
  • Tarefa 8: Obter dados com o Eventstream

Na Tarefa 6, dê um nome exclusivo para a workspace, como "Workshop-initials" ou algo semelhante:

image

Na Tarefa 8, certifique-se de fazer o seguinte:

  • Use os seguintes detalhes de conexão do Event Hub:
Setting Value
Event Hub namespace -----------
Event Hub ---------------
SAS Name ** ------------**
SAS Key -----------------=
Consumer Group Atribuído individualmente
  • Exclua o nome de conexão padrão e forneça um nome exclusivo na caixa de texto, como EventHub-Connection-{initials} ou similar::

image

Exercise 2: KQL Database Configuration and Ingestion

Task 1: Create KQL Database

Como parte dos novos recursos de Real-Time Intelligence, todos os bancos de dados KQL fazem parte de um EventHouse. Algumas capturas de tela podem não ter sido atualizadas.

image


LAB 02: Using KQL and building reports

No additional notes at this time.


Lab 03: Building a DW using Pipelines

Este é um laboratório opcional. É claro que você pode trabalhar nele se o tempo permitir ou fora do laboratório!)


Lab 04: Building a Data Lakehouse

Ao trabalhar com o notebook Lakehouse 2: Build Aggregation Tables, muitas etapas se concentram no uso do Data Activator para ajudar a formatar e agregar os dados. O Data Wrangler é uma ferramenta visual que gera código Python em uma nova célula do notebook. Se você quiser economizar tempo, cada uma das três etapas do Data Wrangler foi concluída e está comentada, e deve se parecer com a imagem abaixo:

image

Se você preferir evitar passar pelas etapas do Data Wrangler ou enfrentar qualquer desafio, poderá usar o código na célula comentada. Destaque todo o código na célula (CTRL-A) e, em seguida, descomente todo o código (CTRL-/). Isso pode ser feito para qualquer uma ou todas as etapas do Data Wrangler.


Lab 05: Getting Started with Building a ML Model in Fabric

Existem 3 notebooks usados neste laboratório:

Notebook Purpose
DS 1 - Build Model Builds an ML model using Prophet, examines data, and stores model in MLflow
DS 2 - Predict Stock Prices Consume MLflow from a notebook
DS 3 - Forecast All Build predictions for all stock symbols and store in a Delta table

O DS 1 e o DS 2 são, em grande parte, exemplos/teoria de como trabalhar com dados, avaliar os resultados e armazenar o modelo no MLflow. O DS 3 é o notebook principal que gera previsões para todas as ações e armazena os resultados na tabela stocks_prediction.

Para economizar tempo: se você estiver interessado principalmente na análise de dados, na configuração de experimentos e na comparação de execuções no MLflow, concentre-se no DS 1 e no DS 2. Se estiver mais interessado em obter as previsões e criar um modelo semântico e um relatório, considere pular diretamente para o DS 3 (que é o Exercício 3: Solução na prática no laboratório).

image

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published