En tant qu'Ingénieur Data Java Kafka, vos missions principales seront les suivantes :
- Concevoir, développer et maintenir des solutions de traitement et de gestion de données volumineuses sur des architectures distribuées.
- Participer à la mise en place de pipelines de données utilisant Kafka pour l’intégration et la diffusion des données en temps réel.
- Développer des applications Java pour le traitement de données en streaming et en batch.
- Assurer la mise en place de processus d'optimisation et d'automatisation des flux de données.
- Garantir la qualité, la performance et la scalabilité des applications en produisant du code fiable et performant.
- Travailler en étroite collaboration avec les équipes Data et DevOps pour concevoir des architectures adaptées et optimiser les performances des systèmes.
- Participer à l’évolution de l’infrastructure de données en apportant des améliorations continues et en intégrant de nouvelles technologies.
- Assurer le support et la résolution des incidents techniques en production liés aux traitements de données.
- Rédiger la documentation technique et les spécifications des solutions mises en place.
Compétences requises :
Compétences techniques :
- Maîtrise du langage Java et des bonnes pratiques de développement.
- Solide expérience avec Kafka (gestion des topics, producteurs, consommateurs, Kafka Streams, etc.).
- Connaissance des concepts de l’architecture de données distribuées.
- Expérience avec les frameworks de traitement de données (ex : Apache Spark, Flink, etc.) est un plus.
- Maîtrise des bases de données SQL et NoSQL (ex : PostgreSQL, MongoDB, Cassandra, etc.).
- Connaissance des outils d’intégration continue et des pratiques DevOps (Docker, Kubernetes, CI/CD).
- Bonne compréhension des systèmes distribués et des enjeux de scalabilité et de haute disponibilité.
- Notions en big data et cloud computing (AWS, GCP, Azure) seraient un plus.
Compétences non techniques :
- Capacité à travailler en équipe et à collaborer avec différents profils techniques (data scientists, devops, etc.).
- Autonomie et rigueur dans la gestion des tâches et des projets.
- Bonne capacité d'analyse et résolution de problèmes complexes.
- Sens de l’innovation et curiosité pour les nouvelles technologies.
- Excellente communication.
Profil recherché :
- Vous êtes diplômé d’une école d’ingénieurs ou d’une formation universitaire en informatique, avec une spécialisation dans les technologies de la donnée.
- Vous avez une expérience significative avec en minimum 3 à 5 ans dans le développement Java et la gestion de systèmes de gestion de flux de données, idéalement avec Kafka.
- Vous avez déjà travaillé dans des environnements de production à grande échelle et êtes à l'aise avec les problématiques liées à la performance et à la scalabilité.
Pourquoi rejoindre notre équipe ?
- Un environnement dynamique et innovant, au sein d’une équipe passionnée par les technologies de données.
- La possibilité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data.
- Des opportunités d’évolution et de formation continue pour développer vos compétences.
- Un cadre de travail flexible et des avantages attractifs.