Join to apply for the Data Engineer (f/m/x) role at TieTalent
3 days ago Be among the first 25 applicants
Get AI-powered advice on this job and more exclusive features.
About
In den letzten 20 Jahren ist NETCONOMY von einem Startup zu einem 500-köpfigen Team herangewachsen, welches an 10 Standorten in Europa zusammenarbeitet. Agilität und interdisziplinäre Zusammenarbeit sind Grundpfeiler unserer Arbeitskultur. In einem kreativen Miteinander erschaffen Menschen mit vielfältigen Hintergründen einzigartige digitale Lösungen.
Als Data Engineer mit einem Fokus auf Databricks übernimmst du eine zentrale Rolle bei der Entwicklung moderner, skalierbarer und leistungsstarker Datenlösungen für unsere Kunden. In diesem Job wirst du Teil unseres wachsenden Data & AI Teams und arbeitest hands-on mit der Databricks Plattform, um unseren Kunden bei komplexen Datenherausforderungen zu helfen.
Dein Aufgabenbereich
1. Design, Entwicklung und Wartung robuster Datenpipelines mit Databricks, Spark und Python
2. Aufbau effizienter und skalierbarer ETL-Prozesse zum Einlesen, Transformieren und Laden von Daten aus verschiedenen Quellen in cloudbasierte Data Lakes und Data Warehouses
3. Nutzung des Databricks Ökosystems (SQL, Delta Lake, Workflows, Unity Catalog) zur Bereitstellung zuverlässiger Daten-Workflows
4. Integration mit Cloud-Diensten wie Azure, AWS oder GCP zur sicheren und kosteneffizienten Datenlösung
5. Mitgestaltung der Datenmodellierung und -architektur für langfristige Datenkonsistenz und Wartbarkeit
6. Gewährleistung der Datenqualität durch Validierungsprozesse und Data-Governance-Richtlinien
7. Zusammenarbeit mit Data Scientists und Analysten, um Datenbedürfnisse zu verstehen und Lösungen zu liefern
8. Kontinuierliche Weiterbildung in Databricks, Data Engineering und Cloud-Technologien
Essential Skills
1. 3+ Jahre Berufserfahrung als Data Engineer mit Databricks und Apache Spark
2. Programmierkenntnisse in Python, inklusive PySpark und Spark SQL
3. Erfahrung mit Databricks Komponenten: Workflows, Unity Catalog, Delta Live Tables
4. Kenntnisse in Datenmodellierung, ETL/ELT-Prozessen und Datenbanksystemen
5. Erfahrung mit Cloud Plattformen (Azure, AWS, GCP)
6. SQL Skills für Datenabfragen und Analysen
7. Gute Kommunikationsfähigkeiten in Englisch und Deutsch (mind. B2)
8. Selbstständiges und teamorientiertes Arbeiten in agiler Umgebung
Beneficial Skills
* Data-Governance, Datenqualität und Compliance Kenntnisse
* Multi-Cloud Erfahrung
* DevOps, Infrastructure-as-Code (z.B. Terraform), CI/CD
* Interesse an Machine Learning oder AI
* Data Visualization Tools (Power BI, Looker)
* Flexible Arbeitsmodelle und Entwicklungsmöglichkeiten
Standort
Vienna, Austria
Weitere Details
* Berufserfahrung: Data Engineer
* Sprachen: Deutsch (mind. B2)
* Beschäftigungsart: Vollzeit
* Bruttogehalt: ab € 53.802,00 jährlich (je nach Qualifikation)
#J-18808-Ljbffr