Enge Zusammenarbeit mit Softwareentwicklern und Logistikexperten. Erstellung, Pflege und Durchführung von Software-Testplänen. Testen der Software sowohl mit emulierter als auch mit realer Logistikhardware. Inbetriebnahme von Systemen direkt bei Kundenanlagen
1
Analyze and prepare data from the pre-systems - Model and map scalable ELT/ETL flows (batch and streaming) … Know-how of core technologies such as SQL (MS SQL Server), Apache Hadoop (Kafka, NiFi, Flink, Scala and/or Java, Python) and Linux
2
Analysis and preparation of data from upstream systems - Modeling and implementation of scalable ELT/ETL processes (batch and streaming) - Acting as an interface between Data Analysts and Data Scientists - Data enrichment and loading into a Big Data environment (Apache Hadoop on Cloudera)
3
Du führst ein Team von Application Developern, um die Einhaltung von Best Pratices und eine fokusierte Ausrichtung auf das Erreichen der Unternehmensziele sicherzustellen - Du agierst als Mentor deines Teams und förderst eine Kultur des Miteinanders und des kontinuierlichen Lernens
4
Job Details - Must Haves: Strong skills in data integration and data gathering methodologies, APIs, and experience working with a variety of APIs (e.g. REST API or SOAP … Proficient in the following languages: Python, SQL, Java/ Scala
5
du entwickelst neue Konzepte für die Planung und Ausführung von Missionen * du bildest diese Missionsplanungskonzepte in unseren Softwaresystemen PintaOnWeb und Reactive Planning ab und arbeitest an der generischen Weiterentwicklung des Funktionsumfangs und der Architektur mit
6
Mail- und Telefonannahme: Du bist verantwortlich für die Bearbeitung von Kundenanfragen über unser OTRS Ticketsystem per E-Mail und Telefon. Ticketbearbeitung: Du bearbeitest vorqualifizierte Tickets und nutzt Remote-Tools wie TeamViewer und VNC zur Fehlerbehebung
8
Analysis and preparation of data from upstream systems - Modeling and implementation of scalable ELT/ETL processes (batch and streaming) - Acting as an interface between Data Analysts and Data Scientists - Data enrichment and loading into a Big Data environment (Apache Hadoop on Cloudera)
9
für Wien und Umgebung - Aufgaben: Analyze and prepare data from the pre-systems - Model and map scalable ELT/ETL flows (batch and streaming) … Know-how of core technologies such as SQL (MS SQL Server), Apache Hadoop (Kafka, NiFi, Flink, Scala and/or Java, Python) and Linux
10