Skip to content
mimi

Ingénieur en Données - Data Engineer

Foodtastic

Montreal · On-site Full-time Mid Level Today

About the role

About

Foodtastic, fondé en 2016, est une des plus grandes compagnies de restaurants au Canada. Durant les cinq dernières années, les ventes totales de l’ensemble des restaurants sont passées de 50 mm $ à plus de 1 milliard $. Notre portfolio de 27 chaînes de restaurants inclut : Milestones, Second Cup, Pita Pit, Quesada, La Belle et La Bœuf et les Rôtisseries Benny.

Position Overview (Aperçu du poste)

Sa principale responsabilité sera de contribuer à l’intégration et à la gestion des données provenant de divers systèmes, notamment les systèmes de point de vente (POS), les plateformes de médias sociaux et d’autres systèmes selon les besoins. En assurant une intégration de données fiable, ce poste soutient la prise de décision, optimise l’efficacité opérationnelle et offre une vision globale de la performance des marques.

Responsibilities

Gestion de la plateforme Databricks

  • Gérer et administrer l’espace de travail Databricks : clusters, jobs, notebooks, architecture Delta et configuration de l’environnement.
  • Concevoir des pipelines ETL/ELT fiables et performants à l’aide de PySpark et SQL pour traiter les données de points de vente (POS), transactionnelles et opérationnelles.
  • Appliquer les bonnes pratiques Delta Lake et Unity Catalog : évolution des schémas, partitionnement, transactions ACID et gestion des versions.
  • Surveiller et optimiser en continu la performance des clusters, les temps d’exécution des jobs et les coûts d’infrastructure à travers les marques et environnements.
  • Maintenir des processus cohérents d’orchestration, d’alerte et de reprise via Databricks Jobs, Azure Data Factory et les pipelines DevOps.

Ingestion et traitement des données

  • Automatiser l’ingestion quotidienne des ventes, transactions, stocks et données opérationnelles provenant des systèmes POS, des fournisseurs et des flux externes.
  • Garantir la complétude et l’intégrité des données grâce à des procédures de validation, de journalisation et de détection d’anomalies (ex. : magasins manquants, doublons).
  • Standardiser l’ingestion des données issues de formats structurés et semi‑structurés (CSV, JSON, Parquet).
  • Collaborer avec les équipes DevOps et BI pour assurer la stabilité des déploiements, l’observabilité et la fiabilité bout en bout des environnements.

Sécurité, gouvernance et conformité

  • Appliquer une sécurité des données de niveau entreprise, incluant le chiffrement et le contrôle d’accès sur Azure et Databricks.
  • Mettre en œuvre le RBAC, la gouvernance Unity Catalog et la gestion des permissions conformément aux normes IT et de conformité.
  • Gérer de manière sécurisée les identifiants et secrets via Azure Key Vault et les identités managées.
  • Maintenir la traçabilité, la documentation des métadonnées et les pipelines versionnés pour tous les systèmes de production.
  • Utiliser l’infrastructure‑as‑code (Terraform/Bicep) et le CI/CD pour garantir des déploiements cohérents et auditables.

Qualité, observabilité et fiabilité des données

  • Mettre en place des cadres automatisés de validation et d’alerte pour détecter les anomalies (ex. : fichiers manquants, ventes négatives, valeurs aberrantes).
  • Définir et suivre des SLA/SLO relatifs à la livraison des données et à la disponibilité des pipelines.
  • Collaborer avec les équipes DevOps pour renforcer la journalisation, la surveillance et les stratégies de sauvegarde sur tous les environnements.
  • Promouvoir une culture de fiabilité, garantissant que chaque jeu de données utilisé pour le reporting ou la prise de décision soit fiable et traçable.

Intégration et valorisation BI

  • Fournir des jeux de données prêts pour l’analyse, optimisés pour Power BI et le reporting d’entreprise.
  • Assister les équipes BI dans la logique d’actualisation incrémentale, l’optimisation des performances DAX/SQL et la cohérence des métadonnées.
  • Valider les changements en amont afin de prévenir toute perturbation dans les rapports en aval.
  • Documenter les transformations, schémas et dépendances afin de garantir la transparence et la continuité des processus.
  • Structurer les données pour permettre une visibilité à l’échelle des marques et du groupe, favorisant une agrégation et une comparaison flexibles.

Requirements (Expérience et compétences requises)

  • Minimum 5 ans d’expérience en ingénierie des données ou en infrastructure de données cloud, idéalement dans le secteur du commerce de détail, de la restauration ou des opérations multi‑sites.
  • Maîtrise avancée de Databricks, Python, SQL et des outils DevOps.
  • Capacité démontrée à concevoir et maintenir des pipelines de données alimentant des tableaux de bord opérationnels et des rapports financiers.
  • Expérience dans la mise en œuvre de cadres de qualité et d’observabilité des données.

Benefits (Avantages offerts)

  • Rémunération concurrentielle selon le marché
  • Café, boissons et collations offerts au bureau
  • Stationnement gratuit au bureau
  • Accès gratuit au gym (bureau de Montréal)
  • Vendredis d’été (horaires allégés)
  • Pause déjeuner d’une heure rémunérée
  • Accès à des soins de santé virtuels
  • Événements sociaux organisés par l’entreprise
  • Régime d’assurance collective incluant soins de santé, soins dentaires et invalidité de longue durée

#J-18808-Ljbffr

Requirements

  • Minimum 5 ans d’expérience en ingénierie des données ou en infrastructure de données cloud, idéalement dans le secteur du commerce de détail, de la restauration ou des opérations multi-sites.
  • Maîtrise avancée de Databricks, Python, SQL et des outils DevOps.
  • Capacité démontrée à concevoir et maintenir des pipelines de données alimentant des tableaux de bord opérationnels et des rapports financiers.
  • Expérience dans la mise en œuvre de cadres de qualité et d’observabilité des données.

Responsibilities

  • Contribuer à l’intégration et à la gestion des données provenant de divers systèmes, notamment les systèmes de point de vente (POS), les plateformes de médias sociaux et d’autres systèmes selon les besoins.
  • Gérer et administrer l’espace de travail Databricks : clusters, jobs, notebooks, architecture Delta et configuration de l’environnement.
  • Concevoir des pipelines ETL/ELT fiables et performants à l’aide de PySpark et SQL pour traiter les données de points de vente (POS), transactionnelles et opérationnelles.
  • Appliquer les bonnes pratiques Delta Lake et Unity Catalog : évolution des schémas, partitionnement, transactions ACID et gestion des versions.
  • Surveiller et optimiser en continu la performance des clusters, les temps d’exécution des jobs et les coûts d’infrastructure à travers les marques et environnements.
  • Maintenir des processus cohérents d’orchestration, d’alerte et de reprise via Databricks Jobs, Azure Data Factory et les pipelines DevOps.
  • Automatiser l’ingestion quotidienne des ventes, transactions, stocks et données opérationnelles provenant des systèmes POS, des fournisseurs et des flux externes.
  • Garantir la complétude et l’intégrité des données grâce à des procédures de validation, de journalisation et de détection d’anomalies (ex. : magasins manquants, doublons).
  • Standardiser l’ingestion des données issues de formats structurés et semi-structurés (CSV, JSON, Parquet).
  • Collaborer avec les équipes DevOps et BI pour assurer la stabilité des déploiements, l’observabilité et la fiabilité bout en bout des environnements.
  • Appliquer une sécurité des données de niveau entreprise, incluant le chiffrement et le contrôle d’accès sur Azure et Databricks.
  • Mettre en œuvre le RBAC, la gouvernance Unity Catalog et la gestion des permissions conformément aux normes IT et de conformité.
  • Gérer de manière sécurisée les identifiants et secrets via Azure Key Vault et les identités managées.
  • Maintenir la traçabilité, la documentation des métadonnées et les pipelines versionnés pour tous les systèmes de production.
  • Utiliser l’infrastructure-as-code (Terraform/Bicep) et le CI/CD pour garantir des déploiements cohérents et auditables.
  • Mettre en place des cadres automatisés de validation et d’alerte pour détecter les anomalies (ex. : fichiers manquants, ventes négatives, valeurs aberrantes).
  • Définir et suivre des SLA/SLO relatifs à la livraison des données et à la disponibilité des pipelines.
  • Collaborer avec les équipes DevOps pour renforcer la journalisation, la surveillance et les stratégies de sauvegarde sur tous les environnements.
  • Promouvoir une culture de fiabilité, garantissant que chaque jeu de données utilisé pour le reporting ou la prise de décision soit fiable et traçable.
  • Fournir des jeux de données prêts pour l’analyse, optimisés pour Power BI et le reporting d’entreprise.
  • Assister les équipes BI dans la logique d’actualisation incrémentale, l’optimisation des performances DAX/SQL et la cohérence des métadonnées.
  • Valider les changements en amont afin de prévenir toute perturbation dans les rapports en aval.
  • Documenter les transformations, schémas et dépendances afin de garantir la transparence et la continuité des processus.
  • Structurer les données pour permettre une visibilité à l’échelle des marques et du groupe, favorisant une agrégation et une comparaison flexibles.

Benefits

soins de santésoins dentairesinvalidité de longue durée

Skills

AzureAzure Data FactoryAzure Key VaultBicepCI/CDDatabricksDevOpsDelta LakeJSONPower BIPythonRBACSQLTerraformUnity Catalog

Don't send a generic resume

Paste this job description into Mimi and get a resume tailored to exactly what the hiring team is looking for.

Get started free