Senior Data & AI Engineer (m/w/d)

apartmentalphacoders placeKöln business_center85.000 € - 95.000 €/Jahr calendar_month 

In exklusiver Zusammenarbeit mit unserem Partner, einem führenden Unternehmen im Bereich datengetriebener und KI-basierter Lösungen mit Fokus auf Azure- und Databricks-Technologien, suchen wir Dich als Senior Data & AI Engineer (m/w/d) am Standort Köln.

Unser Partner konzipiert und implementiert moderne Data-Plattformen auf Basis von Microsoft Azure und Databricks. Der Fokus liegt auf skalierbaren Lakehouse-Architekturen, performanten ETL-/ELT-Strecken und der produktiven Operationalisierung von Machine-Learning-Modellen.

Für Dich bedeutet das die Möglichkeit, technisch anspruchsvolle Datenlösungen von der Konzeption bis zum produktiven Betrieb bei spannenden Kundenprojekten (z.B. Congstar, Mazda oder Telekom) aktiv mitzugestalten.

Aufgaben
  • Als technischer Lösungs- und Implementierungspartner bringst Du Dich in anspruchsvolle Kundenprojekte ein, von der Architekturkonzeption bis zur operativen Umsetzung produktiver Datenplattformen.
  • Der Aufbau, die Weiterentwicklung und Betreuung von Azure- und Databricks-basierten Data-Plattformen gehören zu Deinem zentralen Verantwortungsbereich.
  • Du entwickelst und optimierst ETL-/ELT-Pipelines mit PySpark, Python und SQL, bindest heterogene Quellsysteme an und gestaltest moderne Data-Lake- und Data-Warehouse-Architekturen.
  • Die Umsetzung und Weiterentwicklung von CI/CD-Prozessen im Data-Umfeld (z. B. Databricks Asset Bundles, Azure DevOps) ist integraler Bestandteil Deiner Rolle.
  • Du verantwortest die Operationalisierung von Machine-Learning-Modellen, inklusive Deployment, Monitoring und Integration in bestehende Datenpipelines.
  • Die Entwicklung und Optimierung von Datenbanklösungen (MS SQL, idealerweise auch Oracle) sowie die enge Abstimmung mit Fachbereichen, Data Scientists und IT-Teams runden Dein Aufgabenprofil ab.
Qualifikation
  • Mehrjährige praktische Erfahrung im Aufbau und in der Weiterentwicklung von Data-Plattformen auf Basis von Azure und Databricks
  • Fundierte Kenntnisse in der Entwicklung von ETL-/ELT-Prozessen mit Python, PySpark und SQL
  • Erfahrung in der Data-Warehouse-, Data-Lake- oder Datenbankentwicklung
  • Praxis in der Operationalisierung von Machine-Learning-Modellen
  • Strukturierte Arbeitsweise, Ownership-Mentalität sowie souveränes Auftreten im Kundenaustausch
  • Du sprichst verhandlungssicher
Benefits
  • Work-Life-Balance: 40-Stunden-Woche, hybrides Arbeitsmodell (60% Remote), 30 Urlaubstage pro Jahr (+ 2 Tage Firmenevent)
  • Attraktive Leistungen: Neben einer fairen Vergütung (85–95 k€ + Bonus)
profitierst Du von mehrtägigen Firmenevents, Jobrad, Inhouse Fitnessstudio und Mobilitätsticket
  • Weiterentwicklung: Individuelle fachliche und persönliche Weiterbildungsmöglichkeiten sowie gezielte Entwicklungsprogramme

Durch die exklusive Zusammenarbeit mit unserem Kunden garantieren wir Dir einen direkten, effizienten und maßgeschneiderten Bewerbungsprozess.

Deine Unterlagen kannst Du direkt über den Button „Jetzt bewerben“ vertraulich einreichen. Wir freuen uns darauf, Dich kennenzulernen!

local_fire_departmentDringend gesucht

Senior Network Engineer (m/w/d)

apartmentLeviat GmbHplaceLangenfeld (Kreis Mettmann), 18 km von Köln
Senior Network Engineer (m/w/d) für unseren Standort Langenfeld (NRW) PositionsbeschreibungDer Senior Network Engineer (m/w/d) ist verantwortlich für die Pflege der Netzwerkumgebung von Leviat, die Sicherstellung einer zuverlässigen Konnektivität sowie...
apartmentdatasolut GmbHplaceKöln
mit der Möglichkeit zur persönlichen Weiterentwicklung? Dann bewirb dich bei uns, wir suchen dich als (Junior) Cloud Engineer: Tätigkeiten  •  Du entwickelst und konfigurierst die Cloud-basierte Infrastruktur für Data Lakehouses, Machine Learning-Services und KI...
apartmentdatasolut GmbHplaceKöln
mit der Möglichkeit zur persönlichen Weiterentwicklung? Dann bewirb dich bei uns, wir suchen dich als (Junior) Cloud Engineer: Tätigkeiten  •  Unterstützt unser Team insbesondere bei der Entwicklung, dem Betrieb und dem Monitoring von Datenpipelines und nutzt dabei...