Data Engineer mit Python Fokus (m/w/d)
Data Engineer mit Python Fokus (m/w/d)
Data Engineer mit Python Fokus (m/w/d)
Standort: Wien
Du programmierst gerne, interessierst dich für Automatisierung und möchtest dein Technologie Stack in praktischen Anwendungsfällen weiter ausbauen?
Setze deine IT-Affinität ein, um gemeinsam mit uns die digitale Transformation der europäischen Industrie voranzutreiben.
Wir suchen für den Standort Wien motivierte Data Engineers zum ehestmöglichen Einstieg.
Unternehmensbeschreibung:
Applied Statistics ist ein junges, in Wien und Klagenfurt ansässiges Data Science Consulting Unternehmen. Wir entwickeln maßgeschneiderte KI-Lösungen und beraten Kunden zu datengetriebenen Digitalisierungsprojekten. Unser Schwerpunkt liegt dabei auf produzierender Industrie, Energiewirtschaft und Logistik.
IHRE AUFGABEN
Deine Aufgaben:
In deinem zukünftigen Job wirst du das Applied Statistics Team verstärken und dabei mit erfahrenen Data Scientists und Data Engineers zusammenarbeiten.
Die Tätigkeiten sind abwechslungsreich und variieren stark nach Kunde, Projekt und fachlichem Schwerpunkt. Flexibilität und Freude am Lernen neuer Technologien ist ein Muss.
- Aufbau von skalierbaren Datenplattformen
- Design und Automatisierung von Data Pipelines und Workflows
- Analyse von Daten und Entwicklung von KI Modellen
- Integration von datenbasierten Erkenntnissen in Kundensysteme
IHR PROFIL
Das bringst du mit:
Der eingesetzte Toolstack entwickelt sich schnell und variiert von Projekt zu Projekt. Es ist deshalb vor allem wichtig, sich schnell an den jeweiligen Kundentoolstack anpassen zu können.
- Fortgeschrittene Ausbildung in Informatik / Software Engineering o.ä. (HTL / FH / Uni)
- Praktische Erfahrung in der Entwicklung mit python oder R
- Grundverständnis für Datenbanksysteme
- Grundkenntnisse in maschinellem Lernen
Vorteil, aber keine Voraussetzung
- Erfahrung mit der Integration in BI Tools (Power BI, Tableau)
- Erfahrung mit Virtualisierung von Lösungen (Docker)
- Erfahrung mit Anwendungen in Cloud Systemen (AWS / Azure)
- Erfahrung mit Apache Toolstack (Airflow, Kafka, Spark)
- Tiefgreifendere Erfahrungen mit Datenbanksystemen (Postgres, Influx, Mongo)
- Erfahrung in Design und Architektur von Data Lakes, Datenpipelines und datengetriebenen Applikationen
- Erfahrung mit Code-Versionierung (git) & CI / CD Pipelines
LEISTUNGEN
Dein Arbeitsalltag:
Du arbeitest an datengetriebenen Lösungen, die wir direkt bei unseren Kunden in der Industrie implementieren. Dabei leben wir den Lean Gedanken und entwickeln in enger Abstimmung mit dem Endnutzer. Dadurch ist regelmäßiges Kundenfeedback und laufende Optimierungen sichergestellt. Deine Arbeit leistet einen direkten, realwirtschaftlichen Impact auf die Prozesse unserer Kunden.
In deinem Arbeitsalltag wirst du eigenständig oder in Teams an Projekten arbeiten und geeignete Lösungswege mitgestalten können. Dabei wird viel Wert auf Selbstorganisation, kreative Lösungsfindung und Teamarbeit gelegt. Direkte Kundenkommunikation gehört zu deinem Alltag, genauso wie die Implementierung von Lösungen.
Die Projekte, an denen du arbeiten wirst, decken Themen wie Ressourceneinsparungen, die Regulierung des Energieverbrauchs, oder die Reduktion von Emissionen ab. Unsere Fachgebiete bewegen sich dabei von Intelligent Automation über statistische Optimierung bis hin zu Condition Monitoring und Predictive Maintenance.
Unser Ziel ist es, die Industrie mithilfe von Digitalisierungsmaßnahmen effizienter und nachhaltiger zu gestalten.
Wir bieten:
- Ein kollektivvertragliches Jahresbruttogehalt von mindestens EUR 35.252 bis 50.642 mit Bereitschaft zur Überzahlung entsprechend der Erfahrung und Qualifikation
- Flexibles Arbeitsumfeld mit freier Zeiteinteilung und Home Office
- Zentrales Büro im Herzen Wiens (inklusive Kaffee, Tee und guter Anbindung)
- Dezidierte Zeit für individuelle Weiterbildungen
- Herausfordernde und vor allem abwechslungsreiche Tätigkeiten in einem jungen und dynamischen Team mit familiärem Umfeld
KONTAKT
Taledo GmbH | Rosa-Luxemburg-Straße 7 | 10178 Berlin