Du entwickelst gemeinsam mit einem agilen Softwareentwicklungsteam das interne ERP System (Caché bzw. IRIS) des Unternehmens weiter. Dein Optimierungs-Know-how fließt in bestehende Applikationen und neue Anforderungen ein. Du optimierst bestehende Prozesse und dokumentierst sie nachhaltig
Erfolgreich abgeschlossenes Studium in einem relevanten Fachgebiet wie Informatik, Mathematik oder einem vergleichbaren Bereich - Mehrjährige Erfahrung in der Python-Entwicklung (z. B. mit Django, Flask, SQLAlchemy, odoo) und in der Arbeit mit relationalen Datenbanken (z
Unterstützung bei der Backend-Entwicklung von internen Tools (Python FastAPI) … Erstellung von Data Applications - Technologien und Skills - FastAPI - JavaScript - Linux - React - SQL - Pandas … Qualifikationen - Erste Kenntnisse in Javascript und SQL-Datenbanksystemen, sowie Linux und Containerisierung von Anwendungen
Schnittstellenentwicklung und Anbindungen an die bestehenden Systeme unserer Kund*innen - Code-Reviews werden im Team über Pull Requests gemacht und erfordern auch deinen Einsatz - Kommunikation mit unseren internen UI/UX Designer*innen sowie dem Infrastruktur Team
Sie agieren als zentrale Schnittstelle zu den Fachabteilungen, stimmen Anforderungen ab und arbeiten an integrativen Lösungen. Die Pflege und Sicherstellung der Datenqualität im Bereich Materialstammdaten fällt in Ihren Verantwortungsbereich
Verwaltung und Optimierung einer großen Rechenzentrumsumgebung mit Linux-Fokus. Administration von Virtualisierten Umgebungen basierend auf mehreren 100 Servern (RedHat, Ubuntu und Debian-Derivate). Troubleshooting und 3rd-Level Support
Zusammenarbeit mit Data Scientists, Analytics Engineers sowie internen und externen Experten. Entwicklung und Umsetzung effizienter Datenmanagement-Lösungen. Sicherstellung der protokollkonformen Datenerfassung in Abstimmung mit Datenanbietern
Design, Implementierung und Optimierung von Cloud-Architekturen mit Schwerpunkt AWS. Du bringst dein Wissen und deine Expertise ein und gestaltest damit maßgeblich die Neu- und Weiterentwicklung des Softwareproduktportfolios rund um die Cloud von Baumgartner Automation
Mithilfe bei der Erstellung von ETL-Pipelines mit Python (Airflow DAGs, Databricks, Dremio, etc.) und notwendigen Algorithmen … Unterstützung bei bestehenden Projekten im Bereich Datenaufbereitung für Machine/Deep Learning. Recherche und Analyse von State-of-the-Art Technologien zur Generierung von Daten basierend auf …