Microsoft Fabric Migratie: 3-Daags Implementatieplan
Teams kijken vaak naar Microsoft Fabric en raken verlamd door de omvang ervan. "Het is een heel nieuw platform," zeggen ze dan. "We hebben een migratiestrategie van zes maanden nodig."
Eerlijk gezegd niet.
Fabric is ontworpen om stapsgewijs te worden geïmplementeerd. Je kunt (en zou moeten) je eerste end-to-end oplossing binnen dagen, niet maanden, operationeel hebben. De beste manier om te leren is door iets concreets op te leveren.
Hier is het plan om een deel van je bestaande Power BI analytics te nemen en dit correct over te zetten naar Fabric.
Dag 1: Fundering en Ingestie
Je doel voor dag 1 is simpel: krijg ruwe data in OneLake. Maak je nog geen zorgen over het rapport. Focus op de onderliggende processen.
Ochtend: Workspace en Capacity Setup
- Creëer een nieuwe workspace: Gebruik geen oude. Noem het
[Project Name] - Dev. - Wijs capacity toe: Je hebt minimaal een F2 (of trial) capacity nodig die aan deze workspace is toegewezen. Zonder capacity is het slechts een Power BI workspace.
- Creëer een Lakehouse: Noem het
lh_raw. Dit is je landing zone. - Creëer een tweede Lakehouse: Noem het
lh_gold. Hier komt je schone, gemodelleerde data te staan.
Waarom twee Lakehouses? Het scheidt "rommelige data die we net hebben geïngest" van "schone data die klaar is voor rapportage". Het is een vereenvoudigde medallion architecture (bronze/silver -> gold).
Middag: Ingestie met Dataflows Gen2
Kies één databron. Slechts één. Idealiter iets dat je al kent, zoals een SQL database of een set SharePoint-bestanden.
- Bouw een Dataflow Gen2: Maak verbinding met je bron.
- Voer minimale transformatie uit: Net genoeg om de data types correct te krijgen. Ga nog niet los met business logic.
- Stel de bestemming in: Wijs het naar je
lh_rawLakehouse. - Publiceer en voer uit: Kijk naar de groene vinkjes.
Als je vastloopt met Dataflows, bekijk dan mijn Dataflows Gen2 gids.
Dag 1 checkpoint: Je hebt data in Delta tables in je lh_raw Lakehouse. Je kunt deze met SQL opvragen.
Dag 2: Transformatie en Modelleren
Nu transformeren we ruwe data naar een correct Semantic Model. Dit is waar de "Fabric magic" plaatsvindt — specifiek Direct Lake mode.
Ochtend: Notebooks of Stored Procedures
Je moet data verplaatsen van lh_raw naar lh_gold. Je hebt twee keuzes:
- Optie A (low code): Gebruik nog een Dataflow Gen2 om te lezen uit
lh_raw, pas business logic toe (hernoemen, samenvoegen, berekenen) en schrijf naarlh_gold. - Optie B (code): Gebruik een Spark notebook. Lees uit
lh_raw, voer je transformaties uit in PySpark of SQL, en schrijf naarlh_gold.
Als je vertrouwd bent met Python/SQL, gebruik dan notebooks. Ze zijn sneller en goedkoper op schaal. Als je puur een Power BI-gebruiker bent, zijn Dataflows prima om mee te beginnen.
Bekijk mijn post over Spark Optimization als je de notebook-route kiest.
Middag: De SQL Endpoint
Open je lh_gold Lakehouse. Schakel over naar de SQL analytics endpoint weergave.
- Verifieer relaties: Je kunt hier daadwerkelijk primary/foreign keys definiëren. Ze worden niet afgedwongen, maar ze helpen het Semantic Model.
- Schrijf een test query: Zorg ervoor dat je data er goed uitziet.
SELECT TOP 100 * FROM my_table.
Dag 2 checkpoint: Je hebt schone, star-schema-vriendelijke tabellen in lh_gold.
Dag 3: Serven en Consumptie
Dit is de beloning. We gaan een rapport bouwen dat direct verbinding maakt met OneLake zonder data te importeren.
Ochtend: Het Direct Lake Semantic Model
- Klik vanuit je
lh_goldLakehouse op "New semantic model". - Selecteer de gewenste tabellen (Fact en Dimensions).
- Definieer relaties: Versleep ze net als in Power BI Desktop.
- Schrijf DAX: Ja, je schrijft nog steeds DAX. Creëer hier je
Sum(Sales)enYTDmeasures.
Dit model is in Direct Lake mode. Het is geen DirectQuery (traag), en het is geen import (verouderd). Het leest Delta bestanden direct uit storage. Het is razendsnel.
Middag: Het Rapport
- Open Power BI Desktop.
- Maak verbinding met OneLake data hub.
- Selecteer je nieuwe Semantic Model.
- Bouw het rapport.
Valt je iets op? Het voelt precies zoals het bouwen van een normaal Power BI rapport. Maar er is geen refresh schedule om te beheren voor de dataset. Wanneer het Lakehouse wordt bijgewerkt, werkt het rapport ook bij.
Avond: Implementatie
Publiceer je rapport naar de workspace. Deel het met een paar vriendelijke gebruikers.
Dag 3 checkpoint: Een live Power BI rapport dat draait op Fabric data, zonder import refresh schedule.
Wat nu?
Je hebt zojuist in 3 dagen een moderne data platform oplossing gebouwd.
- Dag 4: Voeg een pipeline toe om de refresh van de Dataflows/notebooks te orkestreren.
- Dag 5: Voeg Row-Level Security (RLS) toe aan het Semantic Model.
- Dag 6: Begin met je tweede subject area.
Denk niet te veel na over de migratie. Kies een deel, verplaats het, leer en herhaal.
gerelateerde artikelen
Spark Optimalisatie in Fabric Notebooks: Gids voor Prestatieafstemming
Jouw notebook code is logica. Jouw Spark configuratie is fysica. Begrijpen wat dit onderscheid inhoudt en wat je op elk Fabric SKU-niveau precies kunt aansturen, maakt alles sneller en goedkoper.
Databricks vs Microsoft Fabric: Complete Vergelijkingsgids 2026
Databricks geeft je totale controle over alles. Fabric maakt het eenvoudig en integreert met Power BI. Geen van beide is objectief beter, maar één is waarschijnlijk de juiste voor jouw situatie.
Delta Lake Optimalisatie in Microsoft Fabric: OPTIMIZE, Z-ORDER en VACUUM Gids
Delta tables worden na verloop van tijd trager als je ze niet onderhoudt. Kleine bestanden hopen zich op, queries vertragen, opslag groeit. Hier lees je hoe je dit daadwerkelijk oplost met optimize, z-order en vacuum.