Lead Devops (H/F)
CDI
Rejoignez le Groupe INTESCIA, leader de la Business Intelligence en Europe !
Qui sommes-nous ?
INTESCIA est un acteur majeur dans le domaine de la data, du digital et de l’intelligence économique. Nous accompagnons les entreprises en leur fournissant des solutions innovantes pour optimiser leur gestion, leur performance financière et leur prise de décision. Grâce à nos expertises en business intelligence, veille stratégique et data analytics, nous aidons nos clients à transformer l’information en un véritable levier de croissance.
Nos atouts :
Un groupe en pleine expansion, reconnu pour son expertise et ses solutions à forte valeur ajoutée.
Une culture d’innovation, où la créativité et l’amélioration continue sont au cœur de notre ADN.
Des équipes passionnées et engagées, évoluant dans un environnement stimulant et collaboratif.
Votre mission :
En tant que Lead Devops, vous jouerez un rôle clé dans la gestion, l’automatisation et l’évolution de notre infrastructure Cloud et on-premise.
Au cœur d’un environnement Data & SaaS en production depuis 2019, vous travaillerez au quotidien avec une cinquantaine de développeurs, Data Engineers et Data Scientists, et contribuerez directement à la fiabilité, la sécurité et la performance de la plateforme.
Vous serez également manager d’une petite équipe DevOps (moins de 5 personnes à ce jour) et acteur majeur de l’amélioration continue de notre stack technique.
Vos activités :
Garantir l’implémentation des meilleures pratiques DevOps dans le contexte historique du groupe INTESCIA sur nos tenants Cloud (AWS, GCP, Azure).
Piloter la sécurité, la disponibilité et la performance de nos environnements Cloud.
Gérer et optimiser le budget Cloud.
Travailler en étroite collaboration avec les équipes Développement, Data-Engineering et Data-Science (déploiements, CI/CD, environnements).
Administrer et faire évoluer des infrastructures Cloud (AWS), hybrides (GCP) et on-premises (ESX / VMware, Prox-Mox).
Concevoir, maintenir et industrialiser l’Infrastructure-as-Code (Terraform) et les automatisations (Ansible).
Gérer la sécurité et le cycle de vie des secrets via Vault.
Administrer des clusters Kubernetes (kops) : scaling, upgrades, troubleshooting avancé.
Exploiter et optimiser des clusters Elasticsearch de grande envergure (jusqu’à 60 nœuds) : performance, stabilité, indexation, montées de version.
Maintenir et améliorer les pipelines CI/CD (GitLab, GitHub, DROPS) et accompagner les équipes dans l’optimisation des workflows.
Assurer la supervision, l’observabilité et l’alerting (Prometheus, Grafana, Shinken, ELK).
Participer aux mises en production régulières (toutes les 3 semaines) et aux releases majeures trimestrielles.
Diagnostiquer et résoudre des incidents complexes, et mettre en place des actions préventives.
Évaluer et intégrer de nouveaux outils améliorant la fiabilité, la sécurité ou l’automatisation.
Le profil que nous recherchons :
Vous êtes passionné(e) par les infrastructures modernes, appréciez les environnements complexes et distribués, et avez à cœur de construire des plateformes robustes, sécurisées et scalables.
Autonome, rigoureux(se) et pédagogue, vous aimez le travail collaboratif, notamment dans un contexte full remote.
Vos compétences :
Expérience significative en DevOps ou Administration Système dans un environnement SaaS ou logiciel.
Excellente maîtrise de l’Infrastructure-as-Code : Terraform, Ansible, Vault.
Expertise en conteneurisation et orchestration : Kubernetes, idéalement kops.
Très bonne connaissance d’AWS, avec une compréhension opérationnelle de GCP, Azure, ESX/VMware et Prox-Mox.
Solides compétences en CI/CD (GitLab, GitHub, DROPS).
Maîtrise des environnements Linux/Unix et compétences avancées en scripting (Bash, Python).
Expérience confirmée sur Elasticsearch à grande échelle.
Compétences en observabilité et monitoring : Prometheus, Grafana, ELK, Shinken.
Capacité à résoudre des incidents complexes dans des environnements distribués.
Excellentes compétences en communication, collaboration et documentation.
Un plus : expérience en environnement Data / Big Data (Hadoop, stack open-source) et/ou notions de MLOps pour le déploiement de pipelines Machine Learning.
Expérience :
Minimum 7 ans d’expérience en DevOps ou Administration Système avancée, ou parcours équivalent démontrant une maîtrise solide des sujets.
Formation en informatique ou expérience équivalente.
Certifications Cloud appréciées mais non obligatoires.
Ce que nous vous offrons :
Poste basé à : Issy-les-Moulineaux / Carquefou / Labège / Bidart / Home office
Type de contrat : CDI
Rémunération fixe et variable sur objectifs
Horaires de travail : 09h00 - 17h30
RTT
Carte tickets restaurants
Option de télétravail ou flexibilité pour une meilleure organisation de votre quotidien
Un cadre de travail responsabilisant, formateur et propice à l’épanouissement
Please mention you found this job on AI Jobs. It helps us get more startups to hire on our site. Thanks and good luck!
Understand the required skills and qualifications, anticipate the questions you may be asked, and study well-prepared answers using our sample responses.
DevOps Q&A's