Ventes_GreenCycle_2024.csv
589 B
Étape 1 : Initialisation et OneLake
Création de l'environnement
Créer un nouvel Espace de travail nommé Formation_Fabric_[Prenom]. Assigner la capacité (Trial ou Fabric Capacity). Création du Lakehouse
Créer un Lakehouse nommé LH_GlobalData. Explorer l'explorateur de fichiers (Files vs Tables). Ingestion (Upload)
Dans la section Files du Lakehouse, créer un dossier RawData. Uploader les fichiers sources (CSV) depuis le PC local vers ce dossier OneLake. Notion clé : On vient de déposer des données brutes dans le lac sans structure définie. Étape 2 : Transformation avec Dataflow Gen2
Création du Dataflow
Se connecter au dossier RawData du Lakehouse (Source). Nettoyage (Power Query Online)
Importer les ventes : Filtrer les lignes vides, changer les types de colonnes (Texte, Décimal, Date). Importer les produits : Joindre (Merger) les ventes avec les produits pour récupérer la catégorie. Ajouter une colonne calculée : Marge = Montant - (Quantité * Coût_Unitaire). Destination de données
Configurer la destination des données vers le Lakehouse LH_GlobalData → Section Tables. Nommer la table finale : Fact_Ventes_Clean. Publier et laisser le Dataflow s'exécuter. Vérification
Retourner dans le Lakehouse, rafraîchir et constater que Fact_Ventes_Clean est maintenant une table Delta Parquet requêtable en SQL. Étape 3 : Orchestration
Objectif : Automatiser le flux.
Ajouter une activité "Dataflow" pour déclencher le nettoyage créé à l'étape 2. Ajouter une activité "Condition" (If Condition) : Si succès : Envoyer un mail (ou simuler une activité "Wait" nommée "Succès"). Si échec : Simuler une activité "Fail". Exécuter le pipeline manuellement ("Run"). Étape 4 : Modélisation "Direct Lake"
Objectif : Créer un modèle sémantique sans import de données.
Ouvrir le Point de terminaison analytique SQL (SQL Analytics Endpoint) du Lakehouse. Aller dans l'onglet Model (en bas). Créer les relations entre la table de faits (Fact_Ventes_Clean) et les dimensions (si vous avez créé des dimensions séparées, sinon travailler sur la table plate pour simplifier). Créer des mesures DAX simples : Total Ventes = SUM(Fact_Ventes_Clean[Montant]) Marge Totale = SUM(Fact_Ventes_Clean[Marge]) Enregistrer ce Modèle Sémantique sous le nom SM_Reporting_Ventes. Notion clé : Aucune actualisation n'est nécessaire grâce au Direct Lake. Étape 5 : Création du Rapport
Depuis le modèle sémantique, cliquer sur "Nouveau rapport". Histogramme : Ventes par Catégorie. Carte (Map) : Ventes par Pays. KPI : Chiffre d'affaires total et Marge. Sauvegarder le rapport Rapport_Pilotage_Ventes dans l'espace de travail. Étape 6 : Sécurité RLS et Partage
Mise en place du RLS (Row-Level Security)
Dans le modèle sémantique, définir un rôle Manager_France. Règle DAX : [Pays] = "France". Assigner un autre stagiaire (ou soi-même) à ce rôle pour tester (via "View as"). Création d'une Application
Aller dans la vue "Espace de travail". Cliquer sur "Créer une application". Ajouter le rapport, définir une audience (ex: "Direction" qui voit tout, "Managers" qui ont le RLS). Simulation Admin (facultatif selon droits)
Aller dans les paramètres de l'espace de travail. Configurer qui a le droit de modifier le rapport vs qui a le droit de le lire uniquement.