We, at Prewave, take pride in encouraging and ensuring a sustainable, transparent and resilient supply chain for all … Utilise a wide array of technologies across the stack, including but not limited to Scala, Python, Kubernetes, Couchbase, PubSub, Postgres, and Google Cloud Platform (GCP)
1
You are actively involved in all phases of software development in an interdisciplinary manner and are happy to share your knowledge with your colleagues as a sparring partner and coach. You are an active member of mostly agile SCRUM teams and spread SQUER culture with the aim of constant improvement
2
Du setzt Data Pipelines, Data Ingest und Data Processing nach Best Practices um und optimierst sie kontinuierlich. Du entwickelst Analytics Plattformen und effiziente CI/CD Pipelines. Du setzt projektbasierte Business-Anforderungen mit den Analytics Services von Databricks und bei Bedarf verwandten Services, sowie …
3
Analyze and prepare data from the pre-systems - Model and map scalable ELT/ETL flows (batch and streaming) … Know-how of core technologies such as SQL (MS SQL Server), Apache Hadoop (Kafka, NiFi, Flink, Scala and/or Java, Python) and Linux
4
Daten sind unsere DnA! Deine auch? Du möchtest die Zukunft des Cloud Data Engineering sowie die strategische Ausrichtung und Lösungsansätze von morgen gestalten? Dabei reizt es dich in anspruchsvollen Analytics-Projekten Datenprozesse und moderne Architektur zu erarbeiten und solide Methoden mit echtem Mehrwert einzusetzen
5
Daten sind unsere DnA! Deine auch? Du möchtest die Zukunft des Cloud Data Engineering sowie die strategische Ausrichtung und Lösungsansätze von morgen gestalten? Dabei reizt es dich in anspruchsvollen Analytics-Projekten Datenprozesse und moderne Architektur zu erarbeiten und solide Methoden mit echtem Mehrwert einzusetzen
7
Monitoring, troubleshooting, and enhancing OOP Python-based Data engineering prescriptive analytics solution, running in Azure environment. Integrating the end-to-end data pipeline to take data from source systems to target data repositories ensuring the quality and consistency of data is always maintained
8
Interesse an den Kerntechnologien wie SQL (MS SQL Server), Apache Hadoop (Kafka, NiFi, Flink, Scala und/oder Java, Python) und Linux - Interesse an der Arbeit mit der hochfrequenten Datenverarbeitung im near-realtime Umfeld
9
Job Details - Must Haves: Strong skills in data integration and data gathering methodologies, APIs, and experience working with a variety of APIs (e.g. REST API or SOAP … Proficient in the following languages: Python, SQL, Java/ Scala
10