hero

JOB BOARD

Connecting diverse data & AI talent with forward-thinking teams
companies
Jobs

Senior / Staff Engineer, Data Platform

Mistplay

Mistplay

Montreal, QC, Canada
Posted on Apr 9, 2026
Mistplay est l'application de fidélité n°1 pour les joueurs mobiles. Notre communauté de millions de joueurs mobiles engagés utilise Mistplay pour découvrir de nouveaux jeux et gagner des récompenses. Les joueurs sont récompensés pour le temps et l'argent qu'ils consacrent aux jeux et peuvent échanger ces récompenses contre des cartes cadeaux. Mistplay a pour mission d'être le meilleur moyen de jouer à des jeux mobiles pour tous, partout dans le monde ! Téléchargez Mistplay sur le Google Play Store ici et suivez-nous sur Instagram, Twitter et Facebook.
📍 Veuillez noter : Au Canada 🇨🇦, Mistplay suit un modèle hybride de 2 jours/semaine en bureau à Toronto (400 University Ave) & Montréal (1001 Blvd. Robert-Bourassa)
Mistplay is the #1 loyalty app for mobile gamers. Our community of millions of engaged mobile gamers come to Mistplay to discover new games to play and earn rewards. Gamers are rewarded for their time and money spent within the games and can redeem those rewards for gift cards. Mistplay is on a mission to be the best way to play mobile games for everyone everywhere! Download Mistplay on the Google Play Store here and follow us on Instagram, Twitter and Facebook.
📍 Please Note: In Canada 🇨🇦, Mistplay follows a 2 days/week in-office hybrid model in Toronto (400 University Ave) & Montreal (1001 Blvd. Robert-Bourassa)

English Description is Below ⬇️

Description de poste – Ingénieur principal de plateforme de données

Aperçu du Rôle

Relevant du directeur de la plateforme de données, l'ingénieur principal de plateforme de données est responsable de la construction et de l'exploitation des systèmes de base qui permettent un accès aux données et des analyses fiables, évolutifs et à haute vitesse dans l'ensemble de Mistplay.

Ce rôle n'est pas axé sur l'analyse, mais plutôt sur l'ingénierie de systèmes de données à grande échelle. Vous serez propriétaire d'importants composants de la plateforme, contribuerez à l'orientation technique et appliquerez les meilleures pratiques qui permettent aux données de passer de l'ingestion brute à des informations fiables et de haute qualité qui génèrent un impact commercial en temps réel.

Vous agirez comme un contributeur individuel solide au sein des équipes, en partenariat avec la science des données, la plateforme ML (apprentissage automatique) et le Backend (système dorsal) pour réduire la latence des données, augmenter le débit analytique et améliorer la confiance dans les données tout au long de leur cycle de vie complet.

Ce que vous ferez
Contribuer de manière essentielle à la conception, à la construction et à l'exploitation des éléments suivants:
• Infrastructure d'ingestion et de pipeline - construire et maintenir des systèmes d'ingestion évolutifs et fiables pour les sources de données par lots et en continu; mettre en œuvre l'évolution des schémas, les contrats de données et la lignée de bout en bout; contribuer à l'optimisation des calculs et des coûts dans diverses charges de travail.
• Architecture d'entrepôt de données et de Lakehouse - mettre en œuvre et faire évoluer la plateforme de données analytiques de base (entrepôt, lakehouse ou hybride); appliquer des stratégies de couche de stockage, de partitionnement et de modèles d'accès; contribuer aux normes de modélisation des données, à l'optimisation des performances et à l'efficacité des coûts.
• Couche de transformation et d'orchestration - construire et maintenir des pipelines de transformation évolutifs et faciles à maintenir (par exemple, dbt, Spark); mettre en œuvre l'orchestration et la gestion des dépendances; appliquer des contrats de qualité des données et des cadres de test à travers la couche de transformation.
• Couche de service et d'accès aux données - mettre en œuvre des systèmes d'accès aux données à faible latence pour les consommateurs analytiques et opérationnels; appliquer des stratégies de mise en cache, de matérialisation et d'API; contribuer aux accords de niveau de service (SLAs) sur la fraîcheur, la cohérence et la performance des requêtes.
• Observabilité et qualité des données - mettre en œuvre la surveillance de la qualité des données, la détection des anomalies et les vérifications de fraîcheur; contribuer aux définitions des objectifs de niveau de service (SLO) pour les données et aux pratiques opérationnelles; participer à la réponse aux incidents et aux analyses post-mortem pour la fiabilité des données.
• Catalogue de données et découvrabilité - contribuer aux systèmes de gestion des métadonnées; encourager la découvrabilité, la propriété et les normes de documentation des données au sein de votre domaine; soutenir l'accès en libre-service à des actifs de données fiables et bien compris.
• Outils et évolution de la plateforme - évaluer et intégrer les composants de la plateforme de données (par exemple, Spark, dbt, Airflow, Kafka, catalogues de données); contribuer aux migrations et aux améliorations de la plateforme avec une perturbation minimale pour les consommateurs en aval.

Ce que vous apporterez

• Expérience de la plateforme de données - 5 ans et plus de construction et d'exploitation de plateformes de données de production; propriété avérée de composants au sein de systèmes à grande échelle prenant en charge l'accès aux données en temps réel ou quasi réel et les charges de travail analytiques.
• Génie logiciel - forte maîtrise de Python, Scala ou Go; expérience éprouvée dans la construction et l'évolution de systèmes de données distribués avec une fiabilité élevée, une facilité de maintenance et des normes d'ingénierie rigoureuses.
• Entreposage de données et Lakehouse - expertise solide dans les architectures modernes d'entrepôt de données et de lakehouse (par exemple, Snowflake, BigQuery, Databricks, Delta Lake, Iceberg); expérience dans la construction et l'optimisation de systèmes analytiques à grande échelle.
• Pipelines en continu et par lots - forte expérience dans la conception et l'exploitation de pipelines de données; solide compréhension des systèmes de streaming (par exemple, Kafka, Flink) et des cadres par lots (par exemple, Spark, dbt) avec une connaissance des compromis entre la latence, le débit et le coût.
• Modélisation et transformation des données - capacité à appliquer et à contribuer aux normes de modélisation des données pour divers besoins des consommateurs; expérience de travail avec des cadres de transformation et des pratiques de test au sein des équipes d'ingénierie et d'analyse.
• Observabilité et opérations - rigueur opérationnelle solide dans les systèmes de données (métriques, journaux, alertes de qualité des données); expérience dans la contribution aux définitions des SLO, à l'optimisation des coûts et à la réponse aux incidents pour la fiabilité des données.
• Croissance technique (niveau principal) - participation active aux revues de conception et aux discussions architecturales; encadrement des coéquipiers; démonstration de la propriété de composants complexes de la plateforme; trajectoire claire vers l'établissement d'une orientation technique plus large.
• Collaboration et influence - travail efficace avec la science des données, la plateforme ML, l'analyse, DevOps et le Backend; communication claire des compromis techniques; traduction des exigences en travail de plateforme bien délimité et exécutable

English Job Description


Role Overview
Reporting to the Director of Data Platform, the Senior Data Platform Engineer is responsible for building and operating the core systems that enable reliable, scalable, and high-velocity data access and analytics across Mistplay.
This role is not about analysis - it is about engineering data systems at scale. You will own significant platform components, contribute to technical direction, and apply best practices that enable data to move from raw ingestion to trusted, high-quality insights that drive real-time business impact.
You will operate as a strong individual contributor across teams, partnering with Data Science, ML Platform, and Backend to reduce data latency, increase analytical throughput, and improve data trust across the full data lifecycle.

What You'll Do

Be a key contributor to designing, building, and operating:
• Ingestion & Pipeline Infrastructure - build and maintain scalable, reliable ingestion systems for batch and streaming data sources; implement schema evolution, data contracts, and end-to-end lineage; contribute to compute and cost optimization across diverse workloads.
• Data Warehouse & Lakehouse Architecture - implement and evolve the core analytical data platform (warehouse, lakehouse, or hybrid); apply storage layer strategies, partitioning, and access patterns; contribute to data modeling standards, performance tuning, and cost efficiency.
• Transformation & Orchestration Layer - build and maintain scalable, maintainable transformation pipelines (e.g., dbt, Spark); implement orchestration and dependency management; enforce data quality contracts and testing frameworks across the transformation layer.
• Data Serving & Access Layer - implement low-latency data access systems for analytical and operational consumers; apply caching, materialization, and API strategies; contribute to SLAs on freshness, consistency, and query performance.
• Observability & Data Quality - implement data quality monitoring, anomaly detection, and freshness checks; contribute to data SLO definitions and operational practices; participate in incident response and postmortems for data reliability.
• Data Catalog & Discoverability - contribute to metadata management systems; drive data discoverability, ownership, and documentation standards within your domain; support self-serve access to trusted, well-understood data assets.
• Platform Tooling & Evolution - evaluate and integrate data platform components (e.g. Spark, dbt, Airflow, Kafka, data catalogs); contribute to migrations and platform improvements with minimal disruption to downstream consumers.

What You'll Bring

• Data Platform Experience - 5+ years building and operating production data platforms; proven ownership of components within large-scale systems supporting real-time or near real-time data access and analytical workloads.
• Software Engineering - strong proficiency in Python, Scala, or Go; track record of building and evolving distributed data systems with high reliability, maintainability, and strong engineering standards.
• Data Warehousing & Lakehouse - solid expertise in modern data warehouse and lakehouse architectures (e.g., Snowflake, BigQuery, Databricks, Delta Lake, Iceberg); experience building and optimizing analytical systems at scale.
• Streaming & Batch Pipelines - strong experience designing and operating data pipelines; solid understanding of streaming systems (e.g. Kafka, Flink) and batch frameworks (e.g. Spark, dbt) with awareness of trade-offs across latency, throughput, and cost.
• Data Modeling & Transformation - ability to apply and contribute to data modeling standards across diverse consumer needs; experience working within transformation frameworks and testing practices across engineering and analytics teams.
• Observability & Operations - solid operational rigor across data systems (metrics, logs, data quality alerts); experience contributing to SLO definitions, cost optimization, and incident response for data reliability.
• Technical Growth (Senior Level) - actively participates in design reviews and architectural discussions; mentors teammates; demonstrates ownership of complex platform components; shows clear trajectory toward setting broader technical direction.
• Collaboration & Influence - works effectively across Data Science, ML Platform, Analytics, DevOps, and Backend; communicates technical trade-offs clearly; translates requirements into well-scoped, executable platform work.

*Nous remercions tous(tes) les candidat(e)s. Le genre masculin a été utilisé dans le but d'alléger le texte. Nous souscrivons au principe de l’équité en matière d’emploi.
Pourquoi choisir Mistplay ?
Nous faisons tout pour rendre notre environnement de travail aussi accueillant et plaisant que possible ! Un poste chez Mistplay s’accompagne de toute une série d'avantages que nous proposons en mode virtuel ou présentiel : déjeuners d'équipe, soirées jeux, événements à l'échelle de l'entreprise, et bien plus encore.
Notre culture est profondément ancrée dans la croissance et soutenue par une équipe de personnes intelligentes, dynamiques et enthousiastes. Nous utilisons les données pour apprendre, améliorer et adapter en permanence. Nous favorisons un environnement dans lequel chacun est encouragé à partager ses idées, à repousser les limites, à prendre des risques calculés et à voir ses visions se concrétiser.
Why Mistplay?
We strive to make our work environment as inviting and fun as possible! Working at Mistplay is coupled with a whole array of perks that we've adopted virtually and in-person: Team Lunches, game nights, company-wide events, and so much more. Our culture is deeply rooted in growth and upheld by a team of smart, dynamic, and enthusiastic people. We utilize data to constantly learn, improve, and adapt. We foster an environment where everyone is encouraged to share their ideas, push boundaries, take calculated risks, and witness their visions come to life.