Data Engineer (ETL / AWS / Airflow) (m/w/d) Remote / ZCTA237395
Data Engineer (ETL / AWS / Airflow) (m/w/d) Remote / ZCTA237395
Beschäftigungsart:
Contract
Kontaktname:
Clark Tannas
Hinweis:
237395
Für einen unserer Großkunden suchen wir derzeit einen freiberuflichen Mitarbeiter , der die nachfolgenden Anforderungen erfüllt:
Ihre Aufgaben:
- Analyse und Beurteilung von Daten und Entwicklung von Daten Pipelines basierend auf der bestehenden
- Architektur und dem aktuellen Zonen-Konzept (raw – trusted – refined)
- Optimierung der Code-Basis hinsichtlich Performanz und Kosten
- Automatisierung von Datenprozessen fachliche Unterstützung bei der Konzeption von Datenmodellen zur Umsetzung der Use Cases und der Projektplanungg
- Fachliche Unterstützung im SCRUM Team, Teilnahme an Dailies, Refinements, Plannings, Reviews, Retros
- Wahrnehmung von Projektbezogenen Vor-Ort Terminen bei Anfrage der Projektkunden
- Code-Verwaltung in Gitlab, Projektmanagement in JIRA
Ihr Profil:
- Mindestens 3 Jahre Erfahrung in der Softwareentwicklung (GIT, CI/CD, Test-Driven Development)
- Ab 2 Jahre Projekterfahrung in der Entwicklung und Automatisierung von ETL-Strecken und in der Datenmodellierung (Python, Apache Spark, PySpark, Pandas, SQL)
- Projekterfahrung mit AWS Cloud-Technologien (AWS Batch, S3, Athena)
- Erfahrung mit Apache Airflow (mind. 1 Jahr)
Kenntnisse agiler Methoden (Scrum, Projekterfahrung oder Zertifikate) - Praktische Erfahrung mit Docker-Containern
- Projekterfahrung in der Branche Transport & Logistik (Datenformate, Data Lakes, Datenqualität)
Rahmenparameter:
- Einsatzort: Remote und nach Absprache in Frankfurt am Main
- Laufzeit: Ab sofort - 31.12.205
- Auslastung: Vollauslastung
Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.