Deprecated: strpos(): Passing null to parameter #1 ($haystack) of type string is deprecated in /home/httpd/vhosts/rea-net.ch/jobs-more.ch/announces/page.php on line 95
Descripción

Das erwartet dich

  • Deine Hauptaufgaben
• Als Data Engineer bist du das Herzstück unserer datengesteuerten Strategie und spielen eine entscheidende Rolle bei der Gestaltung unserer Datenlandschaft.
• Entwicklung einer innovativen Datenplattform: Entwicklung und Betrieb unserer Cloud-basierten Self-Service-Datenplattform, die es den Produktteams ermöglicht, Datenprodukte innerhalb eines Data Mesh Frameworks zu erstellen.
• Dynamische Daten-Pipelines: Entwickle Blaupausen für vielseitige Datenpipelines zur Aufnahme und Umwandlung von Daten, damit Softwareentwicklungsteams im gesamten Unternehmen ihre eigenen Pipelines erstellen können.
• Nahtlose Datenintegration: Erstelle Verbindungen zu Betriebsdaten über Datenbanken und Nachrichtenwarteschlangen, um einen reibungslosen Datenfluss zu gewährleisten.
• Umfassende Datenermittlung: Erleichtere den unternehmensweiten Datenzugriff durch die Implementierung eines robusten Datenkatalog-Tools.
• Effiziente Datenveröffentlichung: Richte einfache Veröffentlichungsmechanismen ein und sorge für einen zuverlässigen Datentransfer in der gesamten Organisation.
• Qualitätssicherung und Überwachung: Entwicklung und Pflege von Tools zur Sicherstellung der Datenqualität und zur Echtzeitüberwachung.
• Beratende Zusammenarbeit: Arbeite als Berater in Teams, um Ingenieure bei der Entwicklung ihrer eigenen Datenprodukte zu unterstützen.
  • Daten-Infrastruktur und -Architektur:
• Dezentralisierte gemeinsame Datennutzung: Setze dich für eine Datenarchitektur ein, die den dezentralen Datenaustausch zwischen funktionsübergreifenden Teams fördert, und biete Best Practices und beratende Unterstützung an.
• Skalierbare Datenplattform: Arbeite mit dem DevOps-Team zusammen, um eine skalierbare Datenplattform mit einer leistungsstarken Abfrage-Engine für grosse bereichsübergreifende Operationen aufzubauen und zu betreiben.
• Vielseitige Infrastruktur: Entwickle eine umfassende Dateninfrastruktur, die sich sowohl auf lokale als auch auf Cloud-Umgebungen erstreckt.
  • Betrieb und Optimierung:
• Kontinuierliche Verbesserung: Überwache, analysiere und optimiere die Leistung, Sicherheit und Zuverlässigkeit unserer Dateninfrastruktur.
  • Datenverwaltung und -qualität:
• Föderierte Datenverwaltung: Bereitstellung von Fachwissen und Tools zur Unterstützung der dezentralen Datenverwaltung innerhalb der IT.
• Integrität und Sicherheit: Wahrung der Datenintegrität und -sicherheit durch klare Governance-Richtlinien und Gewährleistung schriftlicher Datenverträge für jeden Datenproduktverbrauch.
  • Datengestützte Entscheidungsfindung:
Befähigung von Bereichsteams: Unterstützung der Bereichsteams beim Treffen fundierter Entscheidungen in ihren jeweiligen Bereichen.
  • Innovation und Technologieforschung:
• Den Trends immer einen Schritt voraus: Halte dich über die neuesten Entwicklungen im Bereich Data Engineering und maschinelles Lernen auf dem Laufenden und integriere neue Ansätze in unsere Prozesse.
• Kontinuierliches Lernen: Verbessere deine Fähigkeiten mit Online-Kursen, die von Cloud-Anbietern angeboten werden.
  • Stakeholder-Management und Zusammenarbeit:
• Vertrauensvolle Partnerschaften: Arbeite eng mit Führungskräften aus den Bereichen Engineering Online Shops, Business Applications und Data Analytics zusammen, um technische und geschäftliche Ziele aufeinander abzustimmen.
• Effektive Kommunikation: Kommuniziere klar und überzeugend auf allen Ebenen und setze dich für datengesteuerte Initiativen ein.

Das bringst du mit

  • Ein Bachelor- oder Masterabschluss in Informatik oder einem verwandten Fachgebiet oder gleichwertige Erfahrung.
  • Mindestens 5 Jahre Berufserfahrung in den Bereichen Data Engineering, Software Engineering oder verwandten Bereichen.
  • Nachgewiesene Erfahrung im Aufbau von Datenplattformen, Data Lake Houses und Data Warehouses.
  • Erfahrung in der Entwicklung von Datenpipelines und ETL/ELT-Prozessen.
  • Beherrschung von Python und SQL (Java, JavaScript ist ein Plus).
  • Vertrautheit mit Datenprodukten von Google Cloud Platform, AWS oder Azure (GCP-Erfahrung ist von Vorteil).
  • Solides Verständnis von Datentechnologien und Konzepten wie Data Mesh, Lambda-Architekturen und Lakehouse-Architekturen.
  • Erfahrung in agilen Umgebungen, unter Verwendung von Methoden wie Scrum oder Kanban.
  • Starke analytische Fähigkeiten und die Fähigkeit, komplexe Konzepte klar zu kommunizieren.
  • Leidenschaft für technologische Innovation und kontinuierliche Verbesserung.
  • Beherrschung der deutschen und englischen Sprache für eine effektive Kommunikation.
  • Aktives Engagement in der Datengemeinschaft und Beiträge zu Open-Source-Projekten.

Bist du interessiert oder hast du weiterführende Fragen?