Bruker Corporation

Data Engineer (m/w/d)

Arbeitsort DE-HE-Hanau
Datum der Veröffentlichung 23 hours ago(10/10/2025 6:34 AM)
Antrags-Nr.:
2025-18551
Positionstyp
Employee

Überblick

Wir suchen ab sofort für unseren Standort in Hanau einen

Data Engineer (m/w/d)

unbefristet in Vollzeit (40 Stunden pro Woche).

 

Die Bruker EAS GmbH ist der weltweit führende Hersteller von Supraleitern. Unsere Materialien werden in supraleitenden Magneten für eine Vielzahl von Anwendungen in Medizintechnik, Analytik, Fusionsforschung oder Hochenergiephysik eingesetzt. Das Haupteinsatzgebiet unserer Produkte im industriellen Bereich liegt im Spulensystem von Magnetresonanztomographen (MRT). Bruker EAS gehört innerhalb des weltweit agierenden Bruker-Konzerns zur Division BEST (Bruker Energy and Supercon Technologies).

 

Wir bieten Ihnen

 

  • Tarifentgelt und -leistungen der Metall- und Elektroindustrie
  • Weiterbildungsangebote, flexible Arbeitszeiten und Möglichkeit zum mobilen Arbeiten
  • Eine von Bruker EAS GmbH bezahlte freiwillige Unfallversicherung für Freizeit und Arbeitszeit
  • Förderprogramm für den Erwerb von Fahrrädern (bis zu 1.200 € brutto Zuschuss)
  • Kostenlose Parkplätze auf dem Firmengelände, sehr gute Anbindung an öffentliche Verkehrsmittel
  • Mitarbeiterempfehlungsprogramm, große Auswahl an Mitarbeiterrabatten
  • Gemeinsame Aktivitäten und Unternehmensfeiern

 

 

Aufgaben/Verantwortlichkeiten

 

  • Entwicklung, Wartung und Automatisierung von ETL/ELT-Pipelines mit Apache Airflow
  • Automatisierung und Orchestrierung von Datenprozessen
  • Entwicklung der Schnittstellen zu verschiedenen Systemen (SharePoint, PostgreSQL), insbesondere mit Python
  • Konzeption, Pflege und Optimierung relationaler Datenbanken mit PostgreSQL
  • Einsatz von Docker zur Containerisierung von Datenprozessen und Anwendungen (perspektivisch Umstellung auf Kubernetes)
  • Datenbankadministration (z.B. Backups, Indexpflege, Monitoring)
  • Entwicklung von Stored Procedures und AdHoc Abfragen mit PL/pgSQL
  • Sicherstellung von Datenqualität und Datenkonsistenz
  • Monitoring, Dokumentation und Fehlerbehandlung der Datenpipelines
  • Unterstützung bei der Erstellung von Dashboards und Berichten in Qlik Sense und zukünftig in SAP Analytics Cloud (SAC)

 

Qualifikationen

 

  • Abgeschlossenes Studium in Informatik, Computerwissenschaft o.ä.
  • Fundierte Erfahrung mit SQL (vorzugsweise PostgreSQL inklusive PL/pgSQL für komplexe Datenbanklogik) sowie Datenbankadministration
  • Sehr gute Kenntnisse mit Orchestrierungs- und ETL-Tools wie Apache Airflow
  • Sehr gute Kenntnisse in Python (SQLAlchemy und Django sind von Vorteil)
  • Sicherer Umgang mit Docker
  • Fundierte Erfahrung von ETL/ELT-Konzepten und Datenmodellierung
  • Erfahrung mit PowerShell
  • Erfahrung mit Versionskontrolle (z.B. Git) und CI/CD-Prozessen von Vorteil
  • Grundkenntnisse im Umgang mit Linux
  • Grundkenntnisse in Kubernetes von Vorteil
  • Grundkenntnisse mit BI Tools wie Qlik Sense, SAC oder ähnlichen Programmen
  • Grundkenntnisse in Monitoring Tools (z.B. Grafana)
  • Analytisches Denken, strukturierte Arbeitsweise und Teamgeist

 

Optionen

Sorry the Share function is not working properly at this moment. Please refresh the page and try again later.
Share on your newsfeed