Beispiel einer Stellenbeschreibung für einen Data Engineer
Arbeitsgebiete und Aufgaben
Bei [Firmenname] setzen wir für unsere Systeme und Lösungen auf aussagekräftige Daten. Deshalb suchen wir eine oder einen erfahrenen Pipeline-zentrierten Data Engineer (m/w/d) für unser Team. Unser/e Wunschkandidat/in besitzt solide mathematische und statistische Fachkenntnisse, ist wissbegierig und kreativ. Diese Rolle ist sehr vielseitig, mit Schwerpunkt im Ausbau unserer Python ETL-Prozesse und SQL. Auch soziale Kompetenz und Kommunikation spielen eine wichtige Rolle, um komplexe datengetriebene Entwicklung für ein breites Publikum verständlich zu vermitteln. Sie haben Spaß an der Arbeit mit Daten und möchten dazu beitragen, dass wir bestmöglich von unseren Daten profitieren? Dann sind Sie bei uns genau richtig.
Ihre Rolle
- Sie nutzen Daten, um Geschäftsprobleme zu lösen, und schaffen die nötige Infrastruktur, um Fragen zu beantworten und Abläufe zu optimieren
- Sie optimieren unsere Data Science-Arbeitsabläufe, verbessern unser Produktangebot, und bauen unsere Modelle zur Kundenbindung aus
- Sie arbeiten mit unseren Data Science und Business Intelligence Teams zusammen, um Datenmodelle und Pipelines für Forschung, Berichtswesen und Maschinelles Lernen zu entwickeln
- Sie wenden stets Best Practices an und haben einen großen Wissensdrang
Ihre Aufgaben
- Sie arbeiten eng mit unserem Data Science Team zusammen, um komplexe Algorithmen zu bauen, die wertvolle Einblicke in unsere Daten gewähren
- Sie nutzen agile Software-Entwicklungsprozesse, um iterativ Verbesserungen an unseren Backend-Systemen zu machen
- Sie gestalten Front- und Backend-Datenquellen, um die Abläufe unseres Nutzerverhaltens zu veranschaulichen und eine leistungsstarke Datenanalyse zu gewährleisten
- Sie erstellen Datenpipelines, die Daten aus unterschiedlichen Quellen normalisieren, zusammenführen und korrelieren
- Sie entwickeln Modelle, die Fragen beantworten und erstellen Prognosen für die Zukunft des allgemeinen Geschäftsverlaufs
Ihr Profil
- Abgeschlossenes Bachelorstudium in Computerwissenschaften, Informatik, Engineering oder vergleichbar
- Mindestens 3 Jahre Erfahrung mit Python, SQL und Datenvisualisierungstools
- Erfahrung mit AWS, insbesondere RedShift und RDS
- Gute Kommunikationsfähigkeiten, um Fachfremden technische Konzepte zu erklären
- Motivation in einem dynamischen und forschungsorientierten Team und an mehreren Projekten gleichzeitig zu arbeiten
Gewünschte Qualifikationen
- Abgeschlossenes Masterstudium im Bereich Statistik, Mathematik, oder vergleichbar
- Erfahrung mit Entwicklung oder Unterhalt von ETL-Prozessen
- Fachspezifische Zertifizierungen