We store data in MySQL, PostgreSQL, and the Dynatrace data lakehouse, Grail. Through automation, we ensure that all libraries we use are consistently updated to their latest versions. Aufgaben - Design, develop, and maintain Java-based microservices for our account, subscription, and usage-tracking platform
You will own the data warehouse and ensure seamless data flow between different systems, enabling our teams to extract insights and power AI-driven use cases … Design, develop, and maintain ETL/ELT pipelines to efficiently ingest data from our production MongoDB into our data lakehouse
Daten sind unsere DnA! Deine auch? Außerdem möchtest du die Zukunft des Cloud Data Engineering gestalten und mit uns Hand in Hand die strategische Ausrichtung und Lösungsansätze von morgen gestalten? Dabei reizt es dich in anspruchsvollen Analytics-Projekten Lösungsdesigns, die unseren Kunden durch modernste Daten …
Entwicklung von Big Data-Strategien gemeinsam mit dem Kunden auf Grundlage aktueller Herausforderungen. Transformation der Organisation, um sie auf eine datengetriebene Geschäftsstruktur vorzubereiten. Analyse und Anpassung aktueller Geschäftsprozesse, um sie zweckmäßig zu gestalten
Aufgaben, die mich erwarten - Mitwirken bei Machine Learning (ML) Projekten, die eine nachhaltige, datengetriebene Entscheidungsfindung für das Top Management ermöglichen (Forecasting, Supervised Learning, Clustering, Pattern Recognition) - aktives Entwickeln von Codes in Python für die effiziente Verarbeitung von …
Einführung und Aufbau des Data Lakehouse … Aufbau und Optimierung skalierbarer und leistungsfähiger ETL/ELT-Prozesse unter Nutzung moderner Technologien. Zusammenarbeit mit dem Product Owner und Architekten, um eine robuste, zukunftssichere Plattform zu etablieren
Standorte: Graz, Wien - Deine Rolle - Das wartet auf dich … Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie Datenbanken (Azure SQL, PostgresSQL, MongoDB o.ä.) um
Standorte: Graz, Wien - Deine Rolle - Das wartet auf dich - Daten sind unsere DnA … Mitgestaltung von allgemeinen Lösungsansätzen (kunden- und projektspezifische Lösungen) in den Bereichen Azure- und/oder Databricks Cloud Data Engineering
Aufbau und Betrieb moderner on-premises Data Lakehouse-Systeme im Petabyte-Bereich … Implementierung und Betreuung der beschriebenen Komponenten - Was du mitbringen solltest: Über 5 Jahre Erfahrung im Bereich Data Plattform Engineering oder im Plattform Engineering
Job ID: 59332 - Location: Lachen, CH Lisboa, PT - Job Level: Professionals - Job Category: IT - Employment Type: Permanent position … Data Architecture: Design and implement robust data pipelines using Azure Databricks or equivalent cloud data services