Développeur sénior // Senior Developer (Big Data)
TLDR
Develop and maintain data pipelines processing terabyte-scale loads while collaborating with multidisciplinary Agile teams to drive innovation in maximizing online revenue.
Nous recherchons un coéquipier comme toi !
Joins-toi à une équipe Agile et ambitieuse qui a la volonté de toujours s’améliorer et de développer des applications innovantes au sein de notre plateforme qui aide les radiodiffuseurs, les podcasters et les services musicaux à maximiser leurs revenus en ligne.
- Contribuer à la conception et au développement de nouvelles fonctionnalités, ainsi qu'à l'amélioration/correction des fonctionnalités existantes.
- Développer et maintenir des pipelines de données robustes et des applications traitant quotidiennement des charges de travail de plusieurs téraoctets.
- Collaborer avec le/la responsable produit et interagir avec les autres équipes produit pour définir des solutions pour l'avenir de l'organisation.
- Contribuer à toutes les activités du cycle de développement applicatif (planification, conception, codage, tests unitaires et d'intégration automatisés, revue de code, documentation, déploiement, exploitation, surveillance et alertes).
- Faire preuve d'ouverture aux idées des autres tout en communiquant avec respect.
- Proposer et contribuer à la mise en œuvre de solutions d'amélioration continue.
- Être un membre engagé, transparent et positif d'une équipe Agile auto-organisée et multidisciplinaire.
- Recommander certains choix technologiques et être capable de les soutenir.
- Identifier proactivement les faiblesses de nos technologies et processus. Proposer des solutions et les mettre en œuvre.
- Agir en tant qu'expert stratégique au niveau de l'entreprise sur les problématiques techniques et opérationnelles complexes.
- Remettre en question les pratiques et les normes de Triton et piloter des améliorations.
- Devenir un moteur d’activation pour que vos collègues deviennent plus productifs.
- Participer à une rotation d'astreinte (environ une fois tous les deux mois).
- Vous avez de l'expérience en traitement de flux et en technologies Big Data, notamment Spark.
- Vous avez une expérience pratique des technologies de traitement de flux comme Kafka, Kafka-Streams, etc.
- Vous êtes passionné par les défis complexes liés au traitement de données distribuées.
- Vous savez écrire et optimiser des requêtes SQL.
- Vous êtes capable de résoudre les problèmes de manière approfondie, d'analyser les problèmes et de communiquer clairement vos idées.
- Vous parlez français et anglais* à un niveau professionnel.
- Vous connaissez des outils comme GitHub Actions, ArgoCD, Grafana, Docker et Kubernetes.
- Vous avez au moins cinq ans d'expérience professionnelle en tant que développeur logiciel, travaillant avec des langages de programmation JVM et/ou Python.
- Vous avez une expérience pratique avec des langages de programmation comme Scala, Kotlin et/ou Python.
- Vous avez déjà optimisé des requêtes et/ou des processus impliquant des jeux de données à l'échelle du téraoctet.
- Vous avez de l'expérience avec Apache Airflow ou des orchestrateurs de jobs similaires.
- Vous avez travaillé avec Apache Druid.
- Vous avez travaillé avec Looker ou d'autres outils de BI.
- Du travail remote et des horaires flexibles t’assurant une flexibilité avec ta vie perso.
- 4 semaines de vacances + 5 jours personnelles annuellement
- Programmes d’assurance-collective dès ton premier jour, comprenant l’accès à la télémédecine et à un PAE;
- Remboursement de frais Internet
- REER collectif avec contribution de l’employeur, offert des ton premier jour;
*******
We're looking for a teammate like you!
Join an Agile and ambitious team that is driven to always improve and develop innovative applications within our platform that help broadcasters, podcasters and music services maximize their online revenue.
- Contribute to the design and development of new features and the improvement/correction of existing features.
- Develop and maintain robust data pipelines and applications processing terabyte-scale loads daily.
- Collaborate with the Product Owner and interact with other product teams to define solutions for the future of the organization.
- Contribute to all activities of the application development life-cycle (planning, design, coding, automated unit & integration testing, code review, documentation, deployment, operations, monitoring, and alerting).
- Demonstrate openness to the ideas of others while communicating with respect.
- Propose and help implement continuous improvement solutions.
- Be an engaged, transparent, and positive member of a self-organizing and multidisciplinary Agile team.
- Recommend certain technological choices and be able to support them.
- Proactively identify weaknesses in our tech & processes. Present solutions and implement them.
- Acts as a strategic company-level expert on complex technical and operational issues.
- Challenges Triton's practices and standards and drives improvements.
- Enable your colleagues to be more productive.
- Participate in an on-call rotation. (Approx. once every two months.)
- You have experience in both stream processing and big data technologies, especially Spark.
- You have working experience with stream processing technologies like Kafka, Kafka-Streams, etc.
- You are very interested in the complex challenges related to distributed data processing.
- You know how to write and optimize SQL queries.
- You have the ability to thoroughly troubleshoot issues, investigate problems, and clearly communicate your ideas.
- You speak French & English at a professional level.
- You know tools like GitHub Actions, ArgoCD, Grafana, Docker, and Kubernetes.
- You have at least five years of professional experience as a software developer, working with JVM programming languages and/or Python.
- You have working experience with programming languages like Scala, Kotlin, and/or Python.
- You have previously optimized queries and/or processes involving terabyte scale datasets.
- You have experience with Apache Airflow or similar jobs orchestrating technologies.
- You worked with Apache Druid.
- You worked with Looker or other BI tools.
- Fully remote position
- 4 weeks of vacation + 5 paid personal days annually
- Group insurance programs as of your first day, including access to telemedicine and an EAP
- Collective RRSP with matching contribution as of your first day
- Internet reimbursement + MORE
Benefits
Health Insurance
Programmes d’assurance-collective dès ton premier jour, comprenant l’accès à la télémédecine et à un PAE;
Collective RRSP with matching contribution
REER collectif avec contribution de l’employeur, offert des ton premier jour;
Paid Time Off
4 semaines de vacances + 5 jours personnelles annuellement
Remote-Friendly
Du travail remote et des horaires flexibles t’assurant une flexibilité avec ta vie perso.
Triton Digital empowers audio content creators by providing innovative digital solutions that enhance distribution, measurement, and monetization in the audio space. Tailored for broadcasters, podcasters, and advertisers, Triton combines advanced technology with deep industry insights to elevate the streaming audio experience. Its commitment to diversity and inclusion further enriches the creative landscape.