You enrich the data and integrate it into the Big Data environment based on Apache Hadoop (Cloudera) … You have completed a technical education and have practical experience in data modeling - You have already worked with relational databases and big data technologies such as Apache Flink
Analyse und Aufbereitung des Datenmaterials aus den Vorsystemen - Interesse an Modellierung und Abbildung skalierbarer ELT/ETL-Datenflüsse (Batch und Streaming) - Schnittstellenfunktion zwischen Development Teams sowie den Data Analysts und Data Scientists
für Wien, Linz, Wels, Salzburg, Graz - Aufgaben: Administrate, monitor and optimize our Big Data environment based on Apache Hadoop from Cloudera (on-premise and cloud) - Plan and execute updates/upgrades - Evaluate new tools and frameworks for future use
Interesse an Anreicherung der Daten und anschließende Beladung in der Big Data Umgebung (Apache Hadoop auf Cloudera) … Interesse an der Arbeit mit der hochfrequenten Datenverarbeitung im near-realtime Umfeld - Gute Deutsch und Englischkenntnisse
Sie unterstützen technisch (Delivery) bei der Migration von Lösungen wie Cloudera, SAS, Oracle oder anderen Altsystemen zur innovativen Plattform von Databricks … Bachelor oder vergleichbare Ausbildung im IT-Bereich - Umfangreiche Berufserfahrung
für Wien, Eisenstadt, St. Pölten, Linz, Wels, Salzburg, Graz - Aufgaben: Analyze and prepare data from the pre-systems - Model and map scalable ELT/ETL flows (batch and streaming) … Enrich data and load into big data environment (Apache Hadoop on Cloudera)
Enrich data and load into big data environment (Apache Hadoop on Cloudera) … Technical education (Computer Science HTL, Computer Science Degree, Data Science etc.) Experience in data modeling (relational databases and Apache Hadoop)
Job Details - Must Haves: A passion for optimizing the Software Development Lifecycle to speed - delivery of solutions - Min. 3 years of relevant professional experience with DevOps related - topics - Public Cloud experience, preferably GCP - Experience with Cloudera platfrom
für Wien, Linz, Salzburg - Aufgaben: Analyze and prepare data from the pre-systems - Model and map scalable ELT/ETL flows (batch and streaming) - Interface between Data Analysts and Data Scientists - Enrich data and load into big data environment (Apache Hadoop on Cloudera)
Job Details - Must Haves: Strong skills in data integration and data gathering methodologies, APIs, and experience working with a variety of APIs (e.g. REST API or SOAP … Either experience with Cloudera platform (Apache Airflow, Apache Kafka