Du stehst auf ETL - Du verwendest Methoden zur Überprüfung und Verbesserung der Datenqualität - Du unterstützt bei der Datenaufbereitung, Harmonisierung & Verarbeitung (Cleansing, Ingestion, …) Du hilfst deinem Team beim Entwickeln & Optimieren von belastbaren Datenstrecken & behältst die Performance im Auge (Batchprocessing …
1
Du bist verantwortlich für die Datenaufbereitung zu Harmonisierung undWeiterverarbeitung (Cleansing, Ingestion, ...) Du arbeitest an der Datenmodellierung (z.B. Data Vault 2.0, Kimball,...) und Betreuung von ETL-Prozessen - Du arbeitest selbstständig am Aufsetzen, Konfigurieren und Optimieren der Infrastruktur
2
Seien Sie Wegbereiter für eine spannende österreichische Data Driven Company - Erstellen und Durchführen Management Dashboards für die Geschäftsführung - Erstellung von ad-hoc-Analysen sowie Erstellung von Berichten und Präsentationen
3
Entwickle, verbessere und warte interne Anwendungen - Biete technische Einsichten und Unterstützung während der Konzeptphase & technischen Dokumentation - Integriere Projekte in die CI-Pipeline - Arbeite hauptsächlich an Backend-bezogenen Diensten , einschließlich: Einer REST-API Einer ETL-Anwendung
4
Weiterentwicklung unserer Business Intelligence Lösung für Kulturbetriebe. Konzeption und Umsetzung von Datentransformationen (ETL Prozesse), Datenmodellen bis hin zu Visualisierungen und Dashboards. Technische Betreuung unserer Kulturbetriebe und Partnerunternehmen
5
Design & Umsetzung effizienter ETL-Prozesse für die Synchronisation von On-Premise- und (zukünftig Azure-) Cloud-Datenportalen. Pflege und Optimierung bestehender Power BI-Datenmodelle, um datengetriebene Entscheidungen zu unterstützen
6
Seien Sie Wegbereiter für eine spannende österreichische Data Driven Company - Erstellen und Durchführen Management Dashboards für die Geschäftsführung - Erstellung von ad-hoc-Analysen sowie Erstellung von Berichten und Präsentationen
8
Aufbereitung, Verknüpfung, Bereinigung und Validierung von strukturierten und unstrukturierten Daten anhand von ETL-Prozessen mit PySpark und SparkSQL … Technische Ausbildung (HTL, Informatikstudium, o.ä.) oder Berufserfahrung im Data Engineering Bereich
9
Analyse von komplexen Problemstellungen - Entwicklung unter Berücksichtigung bestehender und angedachter Lösungen - vorwiegend für SAP Anwendungen, Datenbanken, Formularmanagement, ETL-Anwendungen und API-Anbindungen … Abgeschlossene Berufsausbildung (HTL und/oder Informatikstudium)
10