Data Engineer

  • Paris
  • CDI
  • Date de début : 03 mars 2025
  • Postuler

À propos

Apollo Plus est une startup B2B SaaS spécialisée dans l’analyse de données et la prédiction d’affluence pour les sites touristiques, culturels, les enceintes sportives et hôtelières.
Nous aidons nos clients à optimiser leurs opérations, améliorer l’expérience client et maximiser leurs revenus grâce à des algorithmes avancés de segmentation, prévision et optimisation.
Nos solutions exploitent des données transactionnelles (billetterie, restauration, boutique, etc.), endogènes (contraintes géographiques, calendaires, structurelles) et exogènes (météorologie, événements locaux/nationaux) pour fournir des insights actionnables.
Nous travaillons avec des clients variés et de toute taille : Puy du Fou, Château La Coste, Château de Versailles, Train d’Artouste, Gouffre de Padirac, Tootbus, UTMB, Aquaboulevard, Forest Hill, etc.

Descriptif du poste

Dans le cadre de notre croissance et de la structuration de notre stack data, nous recherchons un Data Engineer pour renforcer notre équipe et accompagner l’industrialisation de nos solutions de data science.

Missions.

En tant que Data Engineer, vous jouerez un rôle clé dans la conception, l’optimisation et l’industrialisation de notre pipeline de données. Vous travaillerez en étroite collaboration avec les équipes Data Analyst et Produit pour garantir des pipelines performants, scalables et exploitables en production.

Vos missions incluront notamment :

  • Développement et maintenance des pipelines de données : collecte, transformation, stockage et mise à disposition des données pour nos modèles de machine learning et dashboards.

  • Automatisation et industrialisation : mise en place de workflows standardisés et intégration continue (CI/CD) pour accélérer la mise en production des modèles et analyses.

  • Sécurisation et qualité des données : mise en place de contrôles d’intégrité et d’outils de monitoring des pipelines de données.

  • Collaboration avec les équipes Data Analyst et Produit : améliorer l’accès aux données et la reproductibilité des analyses. Contribuer à l’industrialisation des modèles d’IA (segmentation, prédiction, optimisation).

  • Développement d’outils internes pour améliorer la productivité : automatisation des tâches répétitives, MLOps, monitoring des déploiements, documentation.

  • Veille technologique et amélioration continue : suivre les bonnes pratiques et proposer des innovations pour améliorer l’architecture data.

  • Pourquoi nous rejoindre ?

  • Un rôle clé dans une startup en forte croissance : Vous aurez un impact direct sur nos produits et la scalabilité de notre infrastructure. Apollo Plus est leader dans la prédiction pour le secteur de l'expérience et ambitionne une expansion à l'international.

  • Un secteur passionnant et en pleine transformation : Tourisme, sport, transport, hôtellerie, restauration… Nous adressons des problématiques concrètes et à fort impact, dans un secteur encore en pleine transition vers l’analyse avancée des données clients. Chaque client est unique, avec ses propres enjeux, contraintes et opportunités, offrant une diversité de défis techniques et business.

  • Une forte culture data et un environnement technique stimulant : Nous construisons une infrastructure data robuste et scalable pour accélérer nos intégrations, répondre aux enjeux variés de nos clients et maintenir un haut niveau d’exigence technique.

  • Une équipe dynamique et bienveillante : Travailler chez Apollo Plus, c’est rejoindre une équipe à taille humaine (une douzaine de personnes), où chaque contribution compte et où l’entraide et l’innovation sont au cœur de notre culture.

Profil recherché

Nous recherchons un profil autonome, pragmatique et orienté passage à l’échelle, capable de comprendre les enjeux business (réduction du time-to-market, coût d'intégration, optimisation des traitements) et de proposer des solutions techniques adaptées.

Compétences techniques requises.

  • Langages : Python (pandas, SQLAlchemy), SQL

  • Bases de données : PostgreSQL, ClickHouse ou équivalent

  • Orchestration de pipelines : Prefect ou équivalent

  • CI/CD & DevOps : Docker, Git

  • Cloud & Infrastructure : Expérience avec un cloud provider (GCP, AWS, Azure)

  • Architecture & Scalabilité : Bonne connaissance des bases de données et data warehouses

  • Machine Learning & Séries temporelles (un plus, non obligatoire) : 1/ Compréhension des pipelines ML, séries temporelles et problématiques de mise en production (MLOps). 2/ Capacité à collaborer avec les Data Scientists pour industrialiser et optimiser les modèles.

  • Data Quality et Data Science : Compréhension des enjeux de qualité des données, entraînement des modèles, reproductibilité.

  • Anglais professionnel (niveau technico-fonctionnel) : Capacité à rédiger et comprendre la documentation technique, gérer des tickets Jira et échanger en anglais sur des sujets techniques.

Soft skills.

  • Autonomie et rigueur : Capacité à gérer des projets et restituer les avancées.

  • Travail en équipe : Collaboration avec les équipes Data Analyst, Produit et Data Science.

  • Curiosité et amélioration continue : Veille technologique et optimisation des process.

  • Approche orientée business : Proposer des solutions adaptées aux problématiques clients.

Process de recrutement

  • Entretien de qualification (30 min) – Discussion avec notre CPO

  • Entretien technique (1h30) – Test technique (autour de la manipulation d'un dataset) + échange avec le CDO

  • Entretien final (45 min) – Rencontre avec le CEO et/ou CPO et/ou CDO

Informations complémentaires

  • Type de contrat : CDI
  • Date de début : 03 mars 2025
  • Lieu : Paris
  • Niveau d'études : Bac +5 / Master
  • Expérience : > 2 ans
  • Télétravail ponctuel autorisé
  • Salaire : entre 50000€ et 60000€ / an