Du entwickelst eine Data and AI Platform als souveränen Cloud Service - Du erweiterst die Systemarchitektur und identifizierst relevante Open Source Projekte - Du entwickelst REST APIs über welche unsere Kunden den Servicelifecycle steuern
1
Als Data Engineer Microsoft Fabric gestalten Sie den Aufbau und die Weiterentwicklung eines neuen Data Lakehouse auf Basis von Microsoft Fabric. Sie arbeiten von der Konzeption über Erstellung, Pflege und Überwachung von ETL-Strecken und über den gesamten Migrationspfad von unterschiedlichen Quellen hinweg
2
Begeisterung für Netzwerkarbeit und authentische Kommunikation - Teilnahme am Bereitschaftsdienst kann notwendig sein - Sichere Deutschkenntnisse (mind. B2) … Integration von Daten-Streaming-Technologien wie Apache Kafka, Apache Flink oder Spark Streaming
3
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data …
4
Sie arbeiten vor allem in der Integration und im Betrieb von Big Data-Anwendungen, arbeiten mit Big Data-Technologien wie Hadoop, Spark, Storm, Cassandra und Kafka, unterstützen im Aufbau und Betrieb von Big Data-Systemen, installieren und konfigurieren komplexe Big Data …
5
Du wirst Teil des wachsenden Data & AI Teams sein und hands-on mit der Databricks Plattform arbeiten, um komplexe Herausforderungen rund um das Thema Daten zu lösen. • Design, Entwicklung und Wartung robuster Datenpipelines mit Databricks, Spark und Python
6
As a Data Engineer with a focus on Databricks, you will play a key role in building modern, scalable, and high-performance data solutions for our clients. You’ll be part of our growing Data & AI team and work hands-on with the Databricks platform, supporting clients in solving complex data challenges
7
Authentische Kommunikationsfähigkeiten. Teilnahme am Bereitschaftsdienst kann erforderlich sein. Sicheres Deutsch (mind. B2) … Enge Zusammenarbeit mit Kollegen zur Integration von Technologien wie Apache Kafka, Apache Flink oder Spark Streaming
8
Bereitschaft zur Teilnahme am Bereitschaftsdienst. Sichere Deutschkenntnisse (mindestens B2) … Enge Zusammenarbeit mit Kollegen zur Integration von Daten-Streaming-Technologien wie Apache Kafka, Apache Flink oder Spark Streaming
9
Erfahrung mit Container-Technologien (Docker, Kubernetes) und Infrastructure as Code (Terraform, Ansible) (nice to have) … Integration von Daten-Streaming-Technologien wie Apache Kafka, Apache Flink oder Spark Streaming in enger Zusammenarbeit mit Kollegen
10