Projektstart: September 2025
Projektende: Dezember 2025, Option auf Verlängerung
Das Projekt IDDI (Instant Dynamic Data Integration) bei der DB Regio AG verfolgt das Ziel, eine zentrale Plattform für den eventbasierten Austausch von Daten und Geschäftsobjekten zwischen unterschiedlichen IT-Systemen zu implementieren. Im Mittelpunkt steht die Einführung eines zentralen Enterprise Service Bus auf Basis von Apache Kafka, um eine moderne, asynchrone und eventbasierte Datenkommunikation zu ermöglichen. Dadurch sollen die Vielzahl bilateraler Datenanbindungen durch eine normalisierte Schnittstelle ersetzt und die komplexe IT-Landschaft auf eine zukunftsorientierte Architektur gehoben werden.
Ihre Leistungen:
- Erstellung und Weiterentwicklung von IT-Lösungskonzepten im Kontext einer zentralen Integrationsarchitektur
- Visualisierung und Gestaltung von Plattform- und Lösungsarchitekturen
- Aufbau und Betreuung von Eventstreaming-Lösungen auf Basis von Apache Kafka
- Integration von Cloud-Services (AWS) in die Gesamtarchitektur
- Unterstützung bei der Sicherstellung von Datenschutz, Compliance und IT-Security
- Einsatz von Monitoring- und Logging-Tools zur Stabilität und Performanceüberwachung
- Kommunikation von komplexen Sachverhalten gegenüber unterschiedlichen Stakeholdern
Muss-Anforderungen:
- Mehrjährige Erfahrung in Plattform- oder Solution-Architektur sowie in der Erstellung und Visualisierung von IT-Lösungskonzepten
- Fundierte Expertise in Cloud-Technologien, insbesondere AWS (z. B. Lambda, S3, EC2, CloudFront, DynamoDB / RDS, CloudFormation, Terraform)
- Erfahrung mit Eventstreaming-Plattformen und Integrationsarchitekturen sowie asynchroner und eventbasierter Datenkommunikation
- Sehr gute Kenntnisse in Apache Kafka, Kafka-Services (z. B. Datenverarbeitung, Datenmonitoring) sowie Spark in Linux-Umgebungen und AWS
- Verständnis und Awareness für IT-Sicherheit und Datenschutz/Compliance-Richtlinien
- Kenntnisse in Monitoring- und Logging-Tools (z. B. AWS CloudWatch, Grafana)
- Projekterfahrung in Komplexitätsreduktion und zielgruppenorientierter Kommunikation
Soll-Anforderungen:
- Sehr gute Erfahrung in der Konzeption cloudbasierter Dateninfrastrukturen (z. B. Amazon MSK) sowie deren Schnittstellen (z. B. IoT Core), Microservices (z. B. Python)
- Mehrjährige Erfahrung im Testing und Monitoring von Data-Engineering-Pipelines in heterogenen Systemlandschaften
- Erfahrungen mit agilen Projektmanagement-Methoden und Tools (z. B. SCRUM, JIRA, Confluence)
- Nachweislich gute Kenntnisse in Python/Java-Testframeworks (z. B. Pytest, Nose, Unittest, DocTest) sowie Erfahrung mit Testautomatisierung in CI/CD-Pipelines (bevorzugt GitLab CI/CD)
Datenschutzhinweis
Wenn Sie mit uns per E-Mail Kontakt aufnehmen, verarbeiten wir die von Ihnen übermittelten personenbezogenen Daten (z. B. Name, Adresse, Kontaktdaten sowie Angaben zu Ihrer Qualifikation, Ausbildung, Tätigkeit, Lebenslauf und Profil, Referenzen) ausschließlich zur Bearbeitung Ihrer Anfrage und zur Vertragsanbahnung gemäß Art. 6 Abs. 1 lit. b DSGVO.
Weitere Informationen zur Verarbeitung Ihrer Daten finden Sie in unserer Datenschutzerklärung unter: https://www.sps-cs.de/impressum-datenschutzerklaerung/
Frau Michèle Bullmann
SPS Consulting & Services GmbH
Schillerstraße 5
76530 Baden-Baden
+49 7221 398570
projektbewerbung@sps-cs.de