Exemple de description pour le poste d'Ingénieur(e) Data

Modèle d'annonce de recrutement

Chez [Entreprise X], nous nous appuyons sur des données ayant un énorme potentiel pour éclairer nos systèmes et nos solutions – et nous sommes à la recherche d'un(e) Ingénieur(e) Data spécialisé(e) dans les pipelines pour nous aider à les exploiter. Le/la candidat(e) idéal(e) aura des compétences imposantes en mathématiques et statistiques mais aussi beaucoup de curiosité et de créativité. C'est un poste assez polyvalent, mais vous vous concentrerez principalement sur nos process Python ETL et l'écriture parfaitement maîtrisée de SQL. Au-delà de ces prouesses techniques, vous êtes aussi doté de soft skills vous permettant de transmettre avec pédagogie des données très complexes à la direction. Nous recherchons une personne partante pour rejoindre l'aventure et nous aider à tirer le maximum des données.

Objectifs du poste

  • Exploiter les données pour résoudre des problèmes, en concevant et surveillant une infrastructure qui permettra de répondre aux questions et d'optimiser les process
  • Aider à streamliner les workflows de sciences des données, en ajoutant de la valeur à notre offre de produits et en déployant nos modèles de cycles de vie client et de rétention client
  • Travailler en étroite collaboration avec les équipes science des données et intelligence artificielle pour développer des modèles et des pipelines de données destinés à la recherche, au reporting et au machine learning
  • Promouvoir les meilleures pratiques et l'apprentissage continu

Responsabilités quotidiennes et mensuelles

  • Collaborer étroitement avec notre secteur Data Science pour nous aider à construire des algorithmes complexes qui nous permettront d'exploiter au mieux nos données
  • Utiliser des process de développement de logiciels agiles pour améliorer de façon itérative nos systèmes back-end
  • Concevoir des sources de données front-end et back-end pour avoir une meilleure compréhension des flux d'utilisateurs dans tout le système et permettre de puissantes analyses de données
  • Construire des pipelines de données qui nettoient, modifient et agrègent des données de sources disparates

Compétences et qualifications requises

  • Bac + 3 en informatique, technologies de l'information, ingénierie ou équivalent
  • Au moins 3 ans d'expérience de Python, SQL et autres outils de visualisation/exploration des données
  • Connaissance de l'écosystème AWS, notamment RedShift et RDS
  • Facilités à communiquer et à expliquer des concepts techniques à des membres de la direction non-spécialistes des technologies
  • À l'aise au sein d'une équipe dynamique, axée sur la recherche, dans le contexte de projets concurrents

Compétences et qualifications souhaitées

  • Licence en statistiques, mathématiques appliqués ou autre discipline pertinente
  • Expérience de conception et suivi de process ETL
  • Certificats professionnels