Wir sind der Digitalisierungspartner der genossenschaftlichen FinanzGruppe und vereinen jahrzehntelange Banking-Expertise mit moderner Informationstechnologie. Die speziell auf Banken zugeschnittenen IT-Lösungen und Leistungen reichen vom Rechenzentrumsbetrieb über das Bankverfahren agree21 bis hin zur App-Entwicklung. Als deutschsprachiges Unternehmen nutzen wir zukunftsweisende Technologien wie künstliche Intelligenz oder Smart Data und schreiben Prozessoptimierung, Sicherheit und Regulatorik groß.
Für unser Geschäftsfeld Data, Security & Identity im Tribe Analytics suchen wir dich in Voll- oder Teilzeit ab 30 Wochenstunden als Data Engineer (m/w/d) in Karlsruhet bzw. Münster. Deine Tätigkeit ist dem Squad Data Ignite zugeordnet. Hier arbeitest du mit 8 Kolleg*innen standortübergreifend und mit vielfältigen Schnittstellen zusammen.
Tätigkeiten
- Du arbeitest in einem agilen Team mit echter Fullstack-Verantwortung von Entwicklung, Automatisierung und Weiterentwicklung einer skalierbaren Datenplattform – basierend auf einer hybriden Cloud-Architektur (On-Premise & Public Cloud).
- Du bist verantwortlich für die stabile Bereitstellung und Weiterentwicklung unserer On-Premises-Dateninfrastruktur (S3, OpenShift, Docker, Airflow) sowie für die Gestaltung der Cloud-Plattform auf Basis von Databricks.
- Du entwickelst und betreibst robuste Datenpipelines für die interne Datenversorgung – mit Fokus auf Mandantentrennung, Governance, Reproduzierbarkeit und Performance.
- Du arbeitest eng mit unseren Kunden zusammen und unterstützt sie direkt in Projekten auf deren eigener Databricks-Umgebung – von der Datenintegration über die Pipeline-Entwicklung bis zum produktiven Betrieb.
- Du bringst dich aktiv in die Plattformarchitektur und Toolchain-Gestaltung ein – insbesondere im Hinblick auf Infrastrukturautomatisierung (Terraform), Monitoring und CI/CD-Prozesse.
- Du bist Teil eines agilen, interdisziplinären Teams und schaffst gemeinsam mit unserem Team und Kunden nachhaltige, produktionsreife Datenlösungen.
Anforderungen
- Du hast ein einschlägiges Studium der (Wirtschafts-)Informatik, Mathematik oder vergleichbare Qualifikationen abgeschlossen und bringst mehrjährige einschlägige Erfahrung im Bereich Data Engineering mit.
- Du verfügst über fundierte Kenntnisse in Python sowie in der Entwicklung und Orchestrierung von Datenpipelines mit beispielsweise Apache Airflow.
- Du bringst praktische Erfahrung in containerisierten Umgebungen mit (Docker, OpenShift) und bist sicher im Umgang mit objektbasierten Speichern (z. B. S3).
- Du kennst dich mit der Entwicklung auf Databricks aus – inklusive Delta Lake, Notebooks, MLflow, Unity Catalog – und bist in der Lage, Kundenprojekte auf deren Databricks-Instanz umzusetzen.
- Du hast Erfahrung mit Cloud-Infrastrukturen (Azure/AWS/Google) und Infrastructure-as-Code (Terraform) sowie ein gutes Verständnis für CI/CD und automatisierten Plattformbetrieb.
- Du arbeitest kundenorientiert, kommunikationsstark und verfügst über ein sicheres Auftreten – auch in beratungsnahen Situationen.
- Du bist offen für neue Technologien und bringst eine hohe Bereitschaft mit, dich kontinuierlich weiterzuentwickeln.
- Du arbeitest strukturiert, eigenverantwortlich und teamorientiert – sowohl in unserem Team als auch in direkter Zusammenarbeit mit Kunden.
Team
Atruvia ist stolz darauf, Teil der Genossenschaftlichen FinanzGruppe zu sein. Diese Zugehörigkeit unterscheidet den Digitalisierungspartner klar von anderen Unternehmen. Denn in einer Genossenschaft zählt jede Stimme. Alle tragen Verantwortung. Dafür braucht es ein stabiles Wertefundament.
Bei Atruvia bedeutet das: füreinander da sein, offen, respektvoll und ehrlich miteinander umgehen, eigenverantwortlich handeln und ergebnisorientierte Entscheidungen treffen.
Bewerbungsprozess
Nach dem ersten Austausch im Instaffo Chat, wird dein Profil geprüft. Idealweise geht es dann in ein Gespräch mit der Fachabteilung.
Wir freuen uns auf deine Nachricht!