Erstellung und Gestaltung von Analysen und Berichten im Bereich Slot-Monitoring - Erstellung und Gestaltung von Berichten und Reports zur Slot-Entwicklung - Mitarbeit bei Betreuung, Kalibrierung und Systemstabilität der EDV-Anwendungen
Vermittler*in zwischen Welten: Du koordinierst zwischen unserem Data Science Pricing Service-Team und den Fachabteilungen, übersetzt Geschäftsanforderungen in technische Konzepte und sorgst für eine reibungslose Kommunikation
Aufgaben, die mich erwarten - aktives Mitwirken bei der Entwicklung und Optimierung unserer Warenbedarfsplanung - Unterstützen bei quantitativen sowie qualitativen Analysen unserer Produkte und Warengruppen - Ermitteln, Validieren und Optimieren von Prognoseparametern unter Berücksichtigung der Bedarfseinflussfaktoren
laufendes oder abgeschlossenes Studium mit Schwerpunkt Mathematik, Statistik, Informatik, Wirtschaftswissenschaften oder Supply Chain Management - Berufserfahrung im Umgang mit Datenverarbeitung - fundierte Kenntnisse in Excel, Erfahrungen mit SAP, RStudio/Matlab sowie Programmierkenntnisse von Vorteil
Vermittler*in zwischen Welten: Du koordinierst zwischen unserem Data Science Pricing Service-Team und den Fachabteilungen, übersetzt Geschäftsanforderungen in technische Konzepte und sorgst für eine reibungslose Kommunikation
Vermittler*in zwischen Welten: Du koordinierst zwischen unserem Data Science Pricing Service-Team und den Fachabteilungen, übersetzt Geschäftsanforderungen in technische Konzepte und sorgst für eine reibungslose Kommunikation
Data Engineer / Data Science Engineer … für Wien, Eisenstadt, St. Pölten, Linz, Wels, Salzburg, Graz - Aufgaben: Analyze and prepare data from the pre-systems - Model and map scalable ELT/ETL flows (batch and streaming) … Enrich data and load into big data environment (Apache Hadoop on Cloudera)
(Vollzeit in Wien und/oder Guntramsdorf) - ÜBER UNSERE MARKEN - FRANKSTAHL & STEELCOIN - Frankstahl steht seit über 140 Jahren für Verlässlichkeit, Leidenschaft und Innovation im Stahlgroßhandel … Entwicklung, Aufbau und Umsetzung der Cloud-basierten Data Science Platform (AWS, Kubernetes)
(fast) abgeschlossenes Studium für Data Science oder Statistik oder Mathematik . Kenntnisse in den Bereichen Forecasting, Mustererkennung und Regressionsanalyse . profunde Kenntnisse der Programmiersprache R und Shiny . Umgang mit kollaborativen IT Werkzeugen im Team