Microsoft Fabric
Aktuell unser häufigstes Migrationsziel, vor allem wenn SSRS-, SAS- oder SAP-Crystal-Reports-Bestände in der Cloud landen sollen. OneLake bündelt verteilte Datenextrakte zu einer Quelle, Purview übernimmt Lineage bis aufs Spaltenlevel. Direct Lake und unser Power BI MCP Server arbeiten dann auf einem Bestand, in dem nicht mehr drei widersprüchliche Excel-Versionen die nächste Vorstandssitzung bestimmen.
Power BI
Steht am Ende fast jeder Migration, ob aus SAS, SSRS, Crystal Reports, Excel, Tableau oder KNIME. Zwischen Quelle und Power BI räumen wir aber meistens erst die semantische Schicht auf: Calc-Field-Wildwuchs raus, Certified Datasets rein, DAX-Measures dokumentiert, RLS sauber gesetzt. Erst dann hängen wir Claude über den MCP Server an, sonst beantwortet der Agent dieselbe Frage dreimal unterschiedlich.
Microsoft Azure
Standardumgebung, sobald On-Premises SQL Server, SSAS, SSIS oder SSRS in die Cloud sollen. Purview kümmert sich um Lineage und Sensitivity Labels; Managed Identities verdrängen die hartcodierten Secrets, die in alten Migrationsskripten erschreckend oft auftauchen. Unsere Agentic-Komponenten laufen in Azure Functions und über Azure OpenAI, damit Daten nicht durch Drittsysteme fließen, die niemand abgenommen hat.
Anthropic Claude
Aktuell unser bevorzugtes LLM für Agentic-Workflows auf Power-BI-Modellen. Was viele unterschätzen: Claude ist nur so gut wie das Modell, an dem er hängt. Deshalb fließt vor jedem Agent-Use-Case Aufwand in dokumentierte Measures, RLS und Namenskonventionen. Auf der Basis liefert er DAX, Modell-Dokumentation und Ad-hoc-Analysen, die der Fachbereich versteht und das Audit nicht zerlegt.
Model Context Protocol
Offener Standard, über den Claude und andere LLMs am semantischen Power-BI-Modell ansetzen statt an rohen Tabellen. Unser Power BI MCP Server bindet jede Agent-Antwort an die bestehenden RLS- und Access-Policies. Vor dem Roll-out prüfen wir das Modell auf Konsistenz, denn auch der beste Agent liefert widersprüchliche Zahlen, wenn das Fundament darunter wackelt.
Databricks
Greift bei uns vor allem in regulierten Pharma- und Industrieprojekten, wenn ein großes On-Premises-DWH abgelöst werden muss. Unity Catalog hält Lineage und Zugriffsrechte sauber, Delta Live Tables erzwingen Quality Constraints im Pipeline-Code statt im Wiki. Power BI greift via Direct Lake darauf zu, sodass Claude-Agenten auf einem Bestand arbeiten, der GxP- und BAIT-konform bleibt.
Snowflake
Kommt bei uns ins Spiel, wenn ein Legacy-Warehouse aus der Microsoft-Welt herausgewachsen ist. Mit Row Access Policies, Dynamic Data Masking und Time Travel bleibt der Bestand rollenscharf und reproduzierbar. Power-BI-Modelle und Agenten greifen darauf zu, ohne dass jemand versehentlich Klartext-Personendaten in der Antwort findet.
Power Platform
Nicht der spannendste Teil unseres Stacks, aber der, der Datenqualität rund um Migrationen operativ am Leben hält. Power Automate steuert Report-Freigaben, Zugriffszertifizierungen und Migrationsabnahmen mit Audit-Trail. Power Apps stellt die Frontends, in denen der Fachbereich Agentic-Analytics-Ergebnisse reviewt und korrigiert, und schließt damit den Qualitäts-Loop.
Python
Das Rückgrat unserer Migrations-Pipelines. Tableau- und Excel-Workbooks parsen wir automatisiert, Quell- und Zielschemas vergleicht ein eigener Schema-Diff, jeder Migrationsschritt wird mit Great Expectations und Pytest verifiziert. Auf derselben Codebasis laufen unsere Python-MCP-Server und die Agentic-Komponenten in Azure Functions und Fabric Notebooks.
SQL Server
Steht in den meisten Legacy-Migrationen im Mittelpunkt. Wir arbeiten uns durch undokumentierte Stored Procedures, vereinheitlichen Datentypen und mappen bestehende Security-Rollen auf Power-BI-RLS. Am Ende ersetzt eine semantische Schicht den alten SSRS-, SSAS- und SSIS-Wildwuchs, und das ist überhaupt erst die Basis, auf der Claude und andere Agenten verlässliche Antworten geben können.
Git
Pflicht, sobald ein Power-BI- oder Fabric-Deployment Governance-Anforderungen erfüllen muss. Über Azure DevOps, GitHub und die Fabric Git Integration sind Releases versioniert, Pull-Requests laufen durch Review, Rollbacks bleiben reproduzierbar. Dieselbe Disziplin schützt nachgelagerte Agenten, weil jede Measure-Änderung, auf die ein MCP-Aufruf zugreift, im Repo nachvollziehbar bleibt.
Tableau
Klassisches Ausgangssystem unserer Tableau-zu-Power-BI-Projekte. Was wir dort fast immer vorfinden: hunderte Calculated Fields ohne zentrale Definition, was zwangsläufig zu widersprüchlichen Kennzahlen im Vorstand führt. Wir bauen Dashboards in Power BI nach, übersetzen die Calcs in geprüfte DAX-Measures und etablieren Certified Datasets, damit Agentic Analytics darauf konsistent arbeitet.
DBT
Bringt Disziplin in Lakehouse-Migrationen, die sonst gerne in Notebook-Wildwuchs enden. dbt-Tests prüfen Unique-, Not-Null-, Accepted-Values- und Custom-Constraints automatisch; Versionierung und Column-Level-Lineage dokumentieren jeden Modellstand. Erst diese Grundlage macht Fabric- und Databricks-Modelle robust genug, dass MCP-basierte Agenten produktiv darauf arbeiten können.
KNIME
Begegnet uns vor allem in Controlling- und Pharma-Migrationen. Verteilte KNIME-Workflows laufen dort oft lokal, undokumentiert und ohne Versionierung, und das taucht im nächsten Audit fast garantiert als Befund auf. Wir überführen die Logik in versionierte Fabric-Pipelines mit zentraler Lineage und Quality Gates, sodass nachgelagerte Agenten auf einem reproduzierbaren Bestand arbeiten.
AWS
Spielt vor allem in hybriden Migrationen eine Rolle, wenn S3, Redshift oder Athena bereits produktiv laufen. Statt eine teure Re-Plattformierung zu erzwingen, binden wir AWS-Quellen per OneLake Shortcut in Fabric ein und sichern die Datenqualität AWS-seitig über Lake Formation und IAM. Agentic-Workflows laufen damit über die Cloud-Grenze hinweg, ohne dass Datenduplikate entstehen.
Excel
Das mit Abstand häufigste Ausgangssystem unserer Migrationen und meistens auch die größte Datenqualitäts-Baustelle: divergierende Versionen, manuelle Formeln, kein Validierungs-Layer. Verstreute Excel-Schatten-IT überführen wir in Power-BI-Modelle mit Certified Datasets, Validierungsregeln und RLS. Erst dann liefern Claude-Anfragen aus dem Controlling Antworten, denen alle Beteiligten zustimmen können.
PostgreSQL
Migrationsziel für Legacy-Applikationsdaten und gleichzeitig Backend unserer eigenen Agentic-Komponenten. Constraints und Schema-Validierung halten Datenqualität direkt auf Datenbankebene oben; via OneLake Shortcut, RLS-Policies und dbt-Lineage wird daraus eine prüfbare Quelle in Fabric.
Elasticsearch
Hat sich in vielen Häusern als Quellsystem für Log-, Event- und Volltext-Daten etabliert: hochvolumig, unstrukturiert, ohne semantische Anbindung. In der Migration nach Power BI typisieren und validieren wir den Bestand und reduzieren ihn auf das, was im Reporting wirklich gebraucht wird. Claude und MCP-Agenten analysieren Such- und Monitoring-Daten danach im selben Kontext wie den Rest der BI-Landschaft.