Overview
Databricks AI / ML Engineer (m/w/d) gesucht für ein langfristig angelegtes Daten- und KI-Programm. Ziel ist die Entwicklung, Implementierung und der Betrieb skalierbarer Machine-Learning- und LLM-Lösungen auf Azure Databricks von der Datenaufbereitung über Feature Engineering bis hin zu MLOps, Deployment und Monitoring. Fokus liegt auf Big-Data-Engineering, ML/LLM-Workloads, MLOps-Automatisierung sowie der nahtlosen Integration in das Microsoft-Ökosystem.
Standort/Umfang: Hybrid – ca. 50 % vor Ort in Wien, ca. 50 % remote. Rahmenbedingungen: Start März/April 2026, Laufzeit 3 Jahre (optional bis max. 5 Jahre), Auslastung 100 %; Projektsprache Deutsch und Englisch. Das Honorar liegt bei €520 - €560 pro Tag.
Aufgaben
* Datenanalyse und Prototyping mit Python in Azure Databricks unter Einsatz gängiger ML-Frameworks.
* Entwicklung und Betrieb von Big-Data-Pipelines mit Apache Spark, Delta Lake und Databricks SQL.
* Durchführung von Feature Engineering sowie Training, Versionierung und Deployment von Modellen mit Databricks MLflow.
* Entwicklung und Betrieb von ML- und LLM-Workloads auf Azure Databricks (inkl. Unity Catalog, Performance- und Kostenoptimierung).
* End-to-End-Integration der Lösungen in das Microsoft-Ökosystem (z. B. API-Design, Orchestrierung mit Azure Functions und Logic Apps).
* Aufbau und Weiterentwicklung von MLOps- und CI/CD-Pipelines für automatisiertes Training, Testing, Deployment und Monitoring von ML- und LLM-Modellen sowie Agents.
* Durchführung von Modell- und Datenmonitoring (Modellleistung, Daten-Drift, Bias) inklusive Wartungs- und Updateprozessen.
* Einsatz von AutoML-Tools zur Beschleunigung von Prototypen und Experimenten.
* Sicherstellung von Skalierbarkeit, Sicherheit und stabilen Betriebsprozessen der entwickelten Lösungen.
Fachliche Anforderungen
* Fundierte Kenntnisse in Datenanalyse und Prototyping mit Python in Azure Databricks.
* Erfahrung mit Machine-Learning-Frameworks wie TensorFlow, PyTorch und scikit-learn.
* Praktische Erfahrung im Big Data Engineering mit Apache Spark, Delta Lake und Databricks SQL.
* Kompetenz in Feature Engineering sowie Modell-Deployment mit Databricks MLflow.
* Erfahrung in der Entwicklung und dem Betrieb von ML- und LLM-Workloads auf Azure Databricks.
* Erfahrung mit End-to-End-Integrationen im Microsoft-Ökosystem.
* Erfahrung im Aufbau von MLOps- und CI/CD-Pipelines für ML- und LLM-Modelle sowie agentische Workflows.
* Erfahrung im Modell- und Datenmonitoring (Leistung, Drift, Bias) inklusive passender Wartungsstrategien.
* Praktische Erfahrung im Einsatz von AutoML-Tools.
* Vorhandensein einer eigenen, vom Produktivsystem des Auftraggebers getrennten Entwicklungsumgebung, die den aktuellen Standards für Datensicherheit und Zugriffsschutz entspricht (inkl. Nachweis der Infrastruktur).
* Plus: Data- und KI-Governance sowie Erfahrungen in der Konzeption und Umsetzung agentischer Ansätze (Agenten, Multi-Agent-Systeme, agentische Workflows) mit Azure-Ressourcen.
* Erfahrung in der Umsetzung von End-to-End-Databricks-Projekten (Datenaufbereitung, Feature Engineering, Modelltraining, Deployment, MLOps und Monitoring).
* Branchenkenntnisse in der Energieindustrie.
* Strukturierte und analytische Arbeitsweise; hohes Qualitätsbewusstsein; ausgezeichnete Kommunikationsfähigkeit gegenüber technischen und fachlichen Stakeholdern; Teamfähigkeit und Bereitschaft zur Wissensweitergabe.
Interessiert?
Bitte senden Sie uns Ihren aktuellen Lebenslauf, Ihre Verfügbarkeit sowie Ihre Stundensatzvorstellung.
Wir freuen uns auf Ihre Rückmeldung. Kontaktaufnahme gerne über Freelancermap, per E-Mail oder LinkedIn.
Vielen Dank für Ihr Interesse!
The following note is part of the posting: We may use artificial intelligence (AI) tools to support parts of the hiring process. These tools assist our recruitment team but do not replace human judgment. Final hiring decisions are ultimately made by humans. If you would like more information about how your data is processed, please contact us.
#J-18808-Ljbffr