Data Pipeline Entwickler (AWS & Python) (m/w/d) Remote / ZCTA237523
Data Pipeline Entwickler (AWS & Python) (m/w/d) Remote / ZCTA237523
Beschäftigungsart:
Contract
Kontaktname:
Clark Tannas
Hinweis:
237523
Für einen unserer Großkunden suchen wir derzeit einen freiberuflichen Mitarbeiter , der die nachfolgenden Anforderungen erfüllt:
Ihre Aufgaben:
- Analyse und Beurteilung von Daten sowie Entwicklung von Daten-Pipelines basierend auf bestehender Architektur und Zonen-Konzept (raw – trusted – refined)
- Erstellung von Datenvisualisierungen und Berichten
- Automatisierung von Datenprozessen
- Data Exploration neuer Datenquellen und Implementierung geeigneter Datenstrukturen
- Fachliche Unterstützung im SCRUM-Team inkl. Teilnahme an Refinements, Plannings, Reviews und Retros
- Erstellung von Daten-Pipelines auf Basis von Python, Apache Spark, PySpark, Pandas, SQL, Boto3 API, SNS, SQS und REST
- Implementierung, Konfiguration und Nutzung serverloser AWS-Managed-Infrastruktur (AWS Batch, S3, Athena, Glue, MWAA)
Ihr Profil:
- Erfahrung in der Softwareentwicklung (z. B. GIT, CI/CD, Testing)
- Projekterfahrung in der Dashboard-Entwicklung (Power BI, QuickSight, Tableau)
- Projekterfahrung in ETL-Entwicklung, Automatisierung und Datenmodellierung (SQL, Python etc.)
- Projekterfahrung mit relevanten AWS Cloud Technologien und Managed Services
- Erfahrung im Bereich Data Science inkl. gängiger Prognose-, Klassifikations- und Clustering-Algorithmen
- Kenntnisse agiler und skalierter Arbeitsmethoden
- Praktische Erfahrung mit Docker
- Erfahrung mit Daten und Projekten aus der Transport- & Logistikbranche (Datenformate, Qualität, Data Lakes)
Rahmenparameter:
- Einsatzort: Remote und nach absprache in Frankfurt am Main
- Laufzeit: 02.01.2026 - 31.12.2026
- Auslastung: Vollauslastung
Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.
