Skip to content
fabric
Support formation Microsoft Fabric
  • Pages
    • Présentation du support
      • Cours DP-600
        • Untitled page
    • Organisation des formations Power BI & Fabric
    • Présentation de Fabric
      • Architecture Médaillon
      • Tableau comparatif : Power BI standalone vs Microsoft Fabric
      • 36 questions à se poser pour démarrer sur Fabric
      • 10 choses à arrêter de faire / commencer à faire sur Fabric
      • 7 erreurs de capacités, espaces de travail et de contrôle d'accès dans Fabric
    • Feuille de route d'adoption de Microsoft Fabric
      • Synthèse
    • Guides de décision
    • Administration de Fabric
      • Licences Fabric
      • Sécurité
      • Rôles dans les espaces de travail
      • Superviser et gérer
      • Paramètres du client (tenant settings) - Portail d’administration Power BI
    • Suivi des évolutions
    • Exercices
      • Ressources pédagogiques
      • icon picker
        Exercice GreenCycle (Dataflow Gen2)
      • Exercice Lakehouse
    • Domaines

Exercice GreenCycle (Dataflow Gen2)

Reference_Magasins.csv
525 B
Reference_Produits.xlsx
10.7 kB
Ventes_GreenCycle_2024.csv
589 B

Étape 1 : Initialisation et OneLake

Création de l'environnement

Créer un nouvel Espace de travail nommé Formation_Fabric_[Prenom].
Assigner la capacité (Trial ou Fabric Capacity).

Création du Lakehouse

Créer un Lakehouse nommé LH_GlobalData.
Explorer l'explorateur de fichiers (Files vs Tables).

Ingestion (Upload)

Dans la section Files du Lakehouse, créer un dossier RawData.
Uploader les fichiers sources (CSV) depuis le PC local vers ce dossier OneLake.
Notion clé : On vient de déposer des données brutes dans le lac sans structure définie.

Étape 2 : Transformation avec Dataflow Gen2

Création du Dataflow

Créer un Dataflow Gen2.
Se connecter au dossier RawData du Lakehouse (Source).

Nettoyage (Power Query Online)

Importer les ventes : Filtrer les lignes vides, changer les types de colonnes (Texte, Décimal, Date).
Importer les produits : Joindre (Merger) les ventes avec les produits pour récupérer la catégorie.
Ajouter une colonne calculée : Marge = Montant - (Quantité * Coût_Unitaire).

Destination de données

Configurer la destination des données vers le Lakehouse LH_GlobalData → Section Tables.
Nommer la table finale : Fact_Ventes_Clean.
Publier et laisser le Dataflow s'exécuter.

Vérification

Retourner dans le Lakehouse, rafraîchir et constater que Fact_Ventes_Clean est maintenant une table Delta Parquet requêtable en SQL.

Étape 3 : Orchestration

Objectif : Automatiser le flux.
Créer un Data Pipeline.
Ajouter une activité "Dataflow" pour déclencher le nettoyage créé à l'étape 2.
Ajouter une activité "Condition" (If Condition) :
Si succès : Envoyer un mail (ou simuler une activité "Wait" nommée "Succès").
Si échec : Simuler une activité "Fail".
Exécuter le pipeline manuellement ("Run").

Étape 4 : Modélisation "Direct Lake"

Objectif : Créer un modèle sémantique sans import de données.
Ouvrir le Point de terminaison analytique SQL (SQL Analytics Endpoint) du Lakehouse.
Aller dans l'onglet Model (en bas).
Créer les relations entre la table de faits (Fact_Ventes_Clean) et les dimensions (si vous avez créé des dimensions séparées, sinon travailler sur la table plate pour simplifier).
Créer des mesures DAX simples :
Total Ventes = SUM(Fact_Ventes_Clean[Montant])
Marge Totale = SUM(Fact_Ventes_Clean[Marge])
Enregistrer ce Modèle Sémantique sous le nom SM_Reporting_Ventes.
Notion clé : Aucune actualisation n'est nécessaire grâce au Direct Lake.

Étape 5 : Création du Rapport

Depuis le modèle sémantique, cliquer sur "Nouveau rapport".
Créer 3 visuels clés :
Histogramme : Ventes par Catégorie.
Carte (Map) : Ventes par Pays.
KPI : Chiffre d'affaires total et Marge.
Sauvegarder le rapport Rapport_Pilotage_Ventes dans l'espace de travail.

Étape 6 : Sécurité RLS et Partage

Mise en place du RLS (Row-Level Security)
Dans le modèle sémantique, définir un rôle Manager_France.
Règle DAX : [Pays] = "France".
Assigner un autre stagiaire (ou soi-même) à ce rôle pour tester (via "View as").
Création d'une Application
Aller dans la vue "Espace de travail".
Cliquer sur "Créer une application".
Ajouter le rapport, définir une audience (ex: "Direction" qui voit tout, "Managers" qui ont le RLS).
Publier l'application.
Simulation Admin (facultatif selon droits)
Aller dans les paramètres de l'espace de travail.
Configurer qui a le droit de modifier le rapport vs qui a le droit de le lire uniquement.

Want to print your doc?
This is not the way.
Try clicking the ··· in the right corner or using a keyboard shortcut (
CtrlP
) instead.