- Durchführung von Aufgaben des fachlichen Betriebs: CVEs lösen, Daten nach prozessieren und Stakeholderkommunikation
- Weiterentwicklung von Datenprodukten (Data Engineering) mit SQL und Spark sowie die Identifikation von Optimierungspotentialen hinsichtlich time-to-market und Betriebskosten
- Sowohl Aufbau und Betrieb von Datenpipelines für Streaming (Kafka/Event Hubs) und Batch (ADLS/S3) als auch Datenaufbereitung in Microsoft Fabric Lakehouses mit Scala Spark und Delta
- Umsetzung von Datenprodukten end-to-end sowie Ingestion, Transformation, Tests, Deployment, Scheduling und Monitoring
- Entwicklung von Data-Warehousing-Artefakten (MySQL), bei Bedarf Star-Schema-Modellierung und Sicherstellung von Datenqualität und Anonymisierung (DSGVO-konform)
- Orchestrierung der Workflows mit Airflow und Bereitstellung konsumierbarer Datasets für Analytics in Power BI
- Zusammenarbeit in agilen Frameworks (Scrum/SAFe) und saubere Dokumentation
Eine Stellenanzeige von DB Zeitarbeit GmbH