Du stehst auf ETL - Du verwendest Methoden zur Überprüfung und Verbesserung der Datenqualität - Du unterstützt bei der Datenaufbereitung, Harmonisierung & Verarbeitung (Cleansing, Ingestion, …) Du hilfst deinem Team beim Entwickeln & Optimieren von belastbaren Datenstrecken & behältst die Performance im Auge (Batchprocessing …
Daten sind unsere DnA! Deine auch? Außerdem möchtest du die Zukunft des Cloud Data Engineering gestalten und mit uns Hand in Hand die strategische Ausrichtung und Lösungsansätze von morgen gestalten? Dabei reizt es dich in anspruchsvollen Analytics-Projekten Lösungsdesigns, die unseren Kunden durch modernste Daten …
Utilizing and ensuring state-of-the-art methodologies (CI/CD) to deliver a future-proof scalable form. Qualifikationen - Experience with cloud platforms, preferably Google Cloud. Experience in creating scalable data pipelines. Familiarity with custom ETL design and maintenance
Konzeptionierung und Umsetzung von Datenpipelines - Erhebung von Anforderungen und entsprechende Definition von Datenmodellen - Konzipieren und Erstellen von Berichten für unterschiedliche Stakeholder - Sicherstellung der Einhaltung höchster Qualitäts- und Datenschutzstandards durch (Weiter-) Entwicklung entsprechender …
Du erstellst Anforderungsanalysen für Datenimporte, wie beispielsweise Bilanzdaten, und konzipierst dabei auch das passende Datenmodell. Du programmierst ETL-Jobs und SQL Stored Procedures und führst Performanceanalysen sowie SQL-Tuning auf relationalen Datenbanksystemen (Microsoft SQL Server) durch
Umsetzung von datengetriebenen Use Cases in Zusammenarbeit mit Analyst*innen, Data-Scientist*innen und den Fachbereichen - Design, Implementierung und Betrieb von robusten Lösungen zur Datenextraktion aus Produktivsystemen bis zur Lieferung an BI-Systeme
Craft Efficient Data Pipelines: Design, implement, and optimize data pipelines that streamline processing and integration across multiple systems. Own and Enhance Our Data Platform: Ensure the platform is performing at its best by reaching optimal performance and scalability
Mitwirken bei der Konzeption sowie treibende Kraft bei der technischen Umsetzung von Datenmanagement-Architekturen (Data Warehouse, Data Lake) insbesondere in der Domäne Predictive Maintenance von Erzeugungsanlagen - Bereitstellung von Daten mittels unterschiedlicher Technologien/Paradigmen im agilen Team
Analyse und Aufbereitung des Datenmaterials aus den Vorsystemen - Interesse an Modellierung und Abbildung skalierbarer ELT/ETL-Datenflüsse (Batch und Streaming) - Schnittstellenfunktion zwischen Development Teams sowie den Data Analysts und Data Scientists