Data Architect Azure Databricks (m/w/d) Remote / ZCTA237732
Data Architect Azure Databricks (m/w/d) Remote / ZCTA237732
Beschäftigungsart:
Contract
Kontaktname:
Clark Tannas
Hinweis:
237732
Für einen unserer Großkunden suchen wir derzeit einen freiberuflichen Mitarbeiter , der die nachfolgenden Anforderungen erfüllt:
Ihre Aufgaben:
- Konzeption und Weiterentwicklung einer zentralen Data-Lakehouse-Architektur auf Basis von Azure Databricks, ADLS, dbt und Microsoft Fabric
- Migration bestehender Datenplattformen und Datenpipelines von AWS und Azure in eine einheitliche Zielarchitektur
- Implementierung von Batch- und Streaming-Datenpipelines inklusive Datenqualitätsprüfungen und Metadatenmanagement
- Datenmodellierung und Transformation gemäß Medaillon-Architektur (Bronze, Silver, Gold)
- Integration unterschiedlicher Datenquellen wie IoT-Streams, Kafka, MQTT, APIs und dateibasierter Formate
- Aufbau und Pflege von Governance-, Security- und Berechtigungskonzepten (Unity Catalog, AAD)
- Unterstützung bei Advanced Analytics und Integration von Machine-Learning-Modellen
- Erstellung von Architektur-, Betriebs- und Migrationsdokumentationen
- Durchführung von Workshops sowie Know-how-Transfer an Fachbereiche und Betriebsteams
- Optimierung von Performance, Skalierbarkeit und Betriebskosten
Ihr Profil:
- Nachweisbare, umfangreiche und aktuelle Kenntnisse in relevanten Technologien (z. B. Azure Databricks, Spark, Data Lakehouse-Architekturen, Data Engineering im Cloud-Umfeld, Datenmodellierung) werden durch Zertifikate, Projekt-Referenzen und mindestens 5 Jahre praktische Erfahrung im Lebenslauf belegt.
- Mindestens 5 Jahre Erfahrung: Die Erfüllung typischer Data Architect-Aufgaben (z. B. Entwicklung von Da-tenarchitekturen, Datenmodellierung, Datenbank-Designs, Überwachung der Datenintegrität, Migrationen, Einhal-tung von Datenschutz und Compli-ance) wird durch Projektreferenzen, Zertifikate und dokumentierte Arbeits-ergebnisse nachgewiesen.
- Mindestens 5 Projekte: Fundierte Kenntnisse in der Integration und Verarbeitung von Streaming- und Batch-Datenquellen sowie Daten-modellierung und -transformation mit Databricks und dbt, einschließlich der Umsetzung von Bronze-, Silver- und Gold-Layer-Konzepten
- Mindestens 5 Jahre Erfahrung:in den im Technologiekatalog geforderten Bereichen (z. B. Spark, Azure Data Lake Storage, dbt, Scala, API-Entwicklung, Big Data Environments)
- Confluent Certified Developer Zertifizierung
- Azure Platform Architect Zertifizierung
- 3 Jahre Erfahrung in der Implementierung von Data-Governance-Prozessen auf Basis von Azure Databricks (z. B. Richtlinien, Prozessdokumentationen oder Referenzprojekte)
Rahmenparameter:
- Einsatzort: Remote
- Laufzeit: 15.02.2026 - 31.12.2026
- Auslastung: Teilauslastung 3-4 Tage die Woche
Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.
