Beschreibung:
Aufgaben: Dateningestion und -verarbeitung großer Datensätze aus heterogenen Quellen, z. B. Dynamics, Dateien, SQL Konzeption, Betrieb und Optimierung von Datenpipelines in Microsoft Fabric Performance -Optimierung von Spark -Workloads in Bronze -, Silver - und Gold -Layern Migrat
mehr erfahren