Descripción
Das erwartet dich
- Deine Hauptaufgaben
• Entwicklung einer innovativen Datenplattform: Entwicklung und Betrieb unserer Cloud-basierten Self-Service-Datenplattform, die es den Produktteams ermöglicht, Datenprodukte innerhalb eines Data Mesh Frameworks zu erstellen.
• Dynamische Daten-Pipelines: Entwickle Blaupausen für vielseitige Datenpipelines zur Aufnahme und Umwandlung von Daten, damit Softwareentwicklungsteams im gesamten Unternehmen ihre eigenen Pipelines erstellen können.
• Nahtlose Datenintegration: Erstelle Verbindungen zu Betriebsdaten über Datenbanken und Nachrichtenwarteschlangen, um einen reibungslosen Datenfluss zu gewährleisten.
• Umfassende Datenermittlung: Erleichtere den unternehmensweiten Datenzugriff durch die Implementierung eines robusten Datenkatalog-Tools.
• Effiziente Datenveröffentlichung: Richte einfache Veröffentlichungsmechanismen ein und sorge für einen zuverlässigen Datentransfer in der gesamten Organisation.
• Qualitätssicherung und Überwachung: Entwicklung und Pflege von Tools zur Sicherstellung der Datenqualität und zur Echtzeitüberwachung.
• Beratende Zusammenarbeit: Arbeite als Berater in Teams, um Ingenieure bei der Entwicklung ihrer eigenen Datenprodukte zu unterstützen.
- Daten-Infrastruktur und -Architektur:
• Skalierbare Datenplattform: Arbeite mit dem DevOps-Team zusammen, um eine skalierbare Datenplattform mit einer leistungsstarken Abfrage-Engine für grosse bereichsübergreifende Operationen aufzubauen und zu betreiben.
• Vielseitige Infrastruktur: Entwickle eine umfassende Dateninfrastruktur, die sich sowohl auf lokale als auch auf Cloud-Umgebungen erstreckt.
- Betrieb und Optimierung:
- Datenverwaltung und -qualität:
• Integrität und Sicherheit: Wahrung der Datenintegrität und -sicherheit durch klare Governance-Richtlinien und Gewährleistung schriftlicher Datenverträge für jeden Datenproduktverbrauch.
- Datengestützte Entscheidungsfindung:
- Innovation und Technologieforschung:
• Kontinuierliches Lernen: Verbessere deine Fähigkeiten mit Online-Kursen, die von Cloud-Anbietern angeboten werden.
- Stakeholder-Management und Zusammenarbeit:
• Effektive Kommunikation: Kommuniziere klar und überzeugend auf allen Ebenen und setze dich für datengesteuerte Initiativen ein.
Das bringst du mit
- Ein Bachelor- oder Masterabschluss in Informatik oder einem verwandten Fachgebiet oder gleichwertige Erfahrung.
- Mindestens 5 Jahre Berufserfahrung in den Bereichen Data Engineering, Software Engineering oder verwandten Bereichen.
- Nachgewiesene Erfahrung im Aufbau von Datenplattformen, Data Lake Houses und Data Warehouses.
- Erfahrung in der Entwicklung von Datenpipelines und ETL/ELT-Prozessen.
- Beherrschung von Python und SQL (Java, JavaScript ist ein Plus).
- Vertrautheit mit Datenprodukten von Google Cloud Platform, AWS oder Azure (GCP-Erfahrung ist von Vorteil).
- Solides Verständnis von Datentechnologien und Konzepten wie Data Mesh, Lambda-Architekturen und Lakehouse-Architekturen.
- Erfahrung in agilen Umgebungen, unter Verwendung von Methoden wie Scrum oder Kanban.
- Starke analytische Fähigkeiten und die Fähigkeit, komplexe Konzepte klar zu kommunizieren.
- Leidenschaft für technologische Innovation und kontinuierliche Verbesserung.
- Beherrschung der deutschen und englischen Sprache für eine effektive Kommunikation.
- Aktives Engagement in der Datengemeinschaft und Beiträge zu Open-Source-Projekten.
Bist du interessiert oder hast du weiterführende Fragen?