Die Zukunft mitgestalten: In einem interdisziplinären Team entwickeln wir Big Data Services und treiben die digitale Transformation entlang des Produktlebenszyklus aktiv voran
Ganzheitlich denken: Gemeinsam mit den Domainexperten aus den Fachabteilungen entwickeln wir umfassende Softwarelösungen die unseren Kunden & Partnern helfen ihre Produktentwicklung zu optimieren. Wir bilden & entwickeln uns selbst und unseren Tech Stack (On-Prem & Cloud) stetig weiter, evaluieren neue Softwareansätze und nutzen agile Methoden wo sinnvoll
Verantwortung übernehmen: Als Data Engineer bist du für die Konzeption und Implementierung von Datenpipelines (Stream & Batch) aus verschiedenen Prüfbänken entlang des PEM-Elektrolyseproduktlebenszyklus verantwortlich. In enger Zusammenarbeit mit dem Team wendest du Codereviews und Git Workflows an und entwickelst diese kontinuierlich weiter. Du evaluierst Bosch-interne, Drittanbieter- und Open-Source-Software auf dem Markt und entwickelst unsere Technologiestrategie weiter
Begeisterung vermitteln: Im Zuge der abteilungsübergreifenden Kooperation zur Entwicklung von PEM-Elektrolyseprodukten bist du das Bindeglied zwischen der Softwarewelt und der Domainexpertise. Du bist in die europaweite Entwicklung eingebunden und trägst aktiv zur erfolgreichen Entwicklung durch skalierbare Lösungen im Data Engineering bei
Zusammenarbeit erleben: du arbeitest eng mit allen Akteuren entlang der Data Journey zusammen. Du bist in die Planung der Software- & Datenarchitektur, dem Deployment, sowie der Qualitätssicherung im Data Engineering stets ganzheitlich eingebunden. Darüber hinaus bekommst du regelmäßig Einblicke in die Fachgebiete deiner Kollegen in bspw. Bosch Product Engineering, Data Science, Data Analytics oder UX/UI Themen.
Qualifikationen
Persönlichkeit: du bist ein Teamplayer und kreierst leidenschaftlich gerne moderne Big Data-Infrastrukturen
Erfahrungen: du bringst einige Jahre an Berufserfahrung in der Entwicklung von datenzentrischer Software im Bereich Stream- & Batchprocessing mit und konntest erste Erfahrungen im agilen Umfeld sammeln
Know-how: du hast fundierte Kenntnisse moderner Batch- und Stream-Verarbeitungstechnologien wie Spark, Hadoop und Kafka, sowie gute Kenntnisse in Python. Du bist vertraut mit CI/CD Pipelines (z.B. GitLab, Jenkins, etc.) und bist sattelfest in Tools wie MS Azure, Databricks & GitHub Action
Ausbildung: abgeschlossene Ausbildung mit Master (UNI/TU/FH) vorzugsweise mit Schwerpunkt Computer Science, Softwareengineering, technische Informatik, Physik, Mathematik oder Engineering mit einem starken IT-Background.
Sprache: sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift, ach- bzw. produktspezifische Zertifizierungen sind ein Plus
Mit dem Klick auf “Job-E-Mail bestellen” stimmst du unseren AGBs, unseren Datenschutzbestimmungen und der Nutzung von Cookies zu. Du kannst dich jederzeit von unseren E-Mails & Services abmelden.
Mit dem Klick auf “Job-E-Mail bestellen” stimmst du unseren AGBs, unseren Datenschutzbestimmungen und der Nutzung von Cookies zu. Du kannst dich jederzeit von unseren E-Mails & Services abmelden.