Software Developer Java Stream Processing mit Cloud- & DevOps-Fokus (m/w/d)
Software Developer Java Stream Processing mit Cloud- & DevOps-Fokus (m/w/d)
- INIT - Karlsruhe
Über uns
Shaping the Future of Mobility - together! Gemeinsam leisten wir einen wichtigen Beitrag für die Zukunft der Mobilität und gestalten den Öffentlichen Personennahverkehr von morgen. Klingt interessant? Erfahre mehr auf unserer Homepage - www.initse.com Deine Benefits bei uns sind u.a.:
- Flexible Arbeitszeiten und Option "Mobile Office"
- 30 Tage Urlaub und die Möglichkeit auf 5 zusätzliche Tage "Flexi-Urlaub"
- Gaming Zone, Massagesessel und Creative Area
- Finanzielle Zusatzleistungen für u.a. Fahrtkosten und Kinderbetreuung
- Aktuelles Smartphone (Android/iOS) zur beruflichen & privaten Nutzung
Als Software Developer (m/w/d) Java Stream Processing mit Cloud- & DevOps-Fokus bist Du ein wichtiger Teil unserer Statistikabteilung. Hier arbeitet unser 11-köpfiges Team an der Entwicklung von plattformunabhängigen, cloud-nativen Lösungen für den weltweiten ÖPNV. Wir verarbeiten große Mengen an Echtzeit- und Betriebsdaten aus Verkehrssystemen weltweit. Echtzeitdaten werden überwiegend streaming-basiert über Apache Kafka distributiert und von skalierbaren Microservices verarbeitet, während statistische Daten zur Offline-Verarbeitung und Analyse in einer Oracle-DWH-Datenbank persistiert werden.
So ermöglichen wir unseren Kunden u. a. Antworten auf Fragen wie: „Wie pünktlich war Linie X im Monat Y?“ und schaffen die Grundlage für operative und strategische Entscheidungen. Das klingt spannend? Dann komm‘ und steig‘ ein!
Das erwartet Dich
Gemeinsam mit Deinem Team entwickelst Du eine skalierbare, cloud-fähige Microservice-Architektur zur Verarbeitung von Echtzeit- und Statistikdaten für unsere weltweiten Kunden aus dem ÖPNV - von der Streaming-Verarbeitung bis zur stabilen Offline-Auswertung.
- Du entwickelst Java-basierte cloud-native Microservices zur Verarbeitung von: Echtzeitdaten (Streaming) über Kafka sowie
- statistischen Daten für die Offline-Verarbeitung im Oracle Data Warehouse
- Als Schnittstelle zu unseren DevOps-Spezialist:innen treibst du den Ausbau des DevOps-Know-hows im Team aktiv voran
- Du gestaltest Datenflüsse zwischen Kafka, Microservices und DWH und optimierst diese hinsichtlich Performance und Skalierbarkeit
- In Deployment-, Release- und Betriebsfragen bringst du dich aktiv ein und arbeitest mit CI / CD - Pipelines, Konfigurations- und Skalierungsmechanismen sowie Rollbacks
- Du unterstützt bei der Weiterentwicklung unserer Kubernetes-Deployments (u. a. Helm Charts, Ressourcen-Definitionen, Skalierungsstrategien)
- Mithilfe von Monitoring- und Logging analysierst du produktive Datenströme und Systeme und unterstützt so bei Support-Anfragen
State-of-the-Art Technologien, die bei uns zum Einsatz kommen:
Java mit Quarkus, Apache Kafka, REST, Oracle DWH, PostgreSQL, Kubernetes, Kubernetes-Operatoren für PostgreSQL, Kafka), Helm, CI/CD-Pipelines, Grafana, FluentBit und Loki. Die von Dir entwickelten Lösungen laufen in produktiven Systemen des weltweiten ÖPNV - sichtbar und relevant im Alltag
Das bringst Du mit
- Ein abgeschlossenes technisches Hochschulstudium (z. B. Informatik) oder eine Ausbildung mit entsprechender Berufserfahrung
- Sehr gute Java-Kenntnisse sowie idealerweise Erfahrung mit Quarkus
- Im Bereich Cloud und DevOps hast du bereits Know-how aufgebaut oder großes Interesse, insbesondere in Kubernetes (Deployments, Pods, Services, Ressourcen), Helm- bzw. YAML-basierten Deployments sowie CI/CD-Prozessen inklusive Releases und Rollbacks
- Erfahrung oder starkes Interesse an Streaming- und Datenverarbeitung, z. B.: Apache Kafka (Producer, Consumer, Topics, Partitions)
- Verarbeitung von Echtzeitdaten und Übergang in Offline-/DWH-Strukturen
- Skalierbare Systeme, stabile Produktionsumgebungen und Performance-Optimierung begeistern dich ebenso wie komplexe technische Fragestellungen - von der Datenquelle bis zur Auswertung
- Zudem bringst du die Bereitschaft mit, dich in die Domäne der Betriebs- und Echtzeitdaten des ÖPNV einzuarbeiten
- Gute Deutsch- und Englischkenntnisse in Wort und Schrift
- nice to have: Erfahrung mit Oracle DWH oder komplexen analytischen Datenmodellen sowie mit Kafka Streams oder ähnlichen Streaming-Frameworks
- nice to have: Kenntnisse zu Skalierungsmechanismen wie Horizontal Pod Autoscaling, Ressourcen-Requests und Limits sowie Erfahrung mit ressourcenintensiven Batch- oder Transformationsjobs
Standort
Karlsruhe INIT GmbH
Du hast noch Fragen?
Wir helfen Dir gerne weiter und sind über jobs@initse.com oder 0721/6100-0 erreichbar!
- Sophia Coveli
- Recruiter
Dies ist eine auf dritten Jobbörsen gefundene Stellenanzeige. Wir bieten hierfür keinen Support, können diese aber jederzeit offline stellen. Für weitere Informationen: Datenschutzhinweise | Anzeige melden.