Participer à la réalisation de l’ensemble des projets métiers (usages)
Prendre en charge les demandes de corrections provenant d’incidents ou d’anomalies
Participer à l'auto-formation et à la montée en compétences de l’équipe de développement
Appliquer les bonnes pratiques et les normes de développement
Mettre en pratique les méthodes Devops
Contribuer aux chiffrages des usages et à la constitution des releases
Développer et documenter son code
Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support)
Compétences techniques obligatoires :
● Expérience en architecture de systèmes distribués Big Data
● Scala/Java (expérience obligatoire dans l’un des deux langages)
● Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)
● Maîtrise de la CI/CD et des outils de déploiement et orchestration (Jenkins, GitLab, Kubernetes,
Docker, Ansible …)
● Concepts fondamentaux de Kafka
● Bases de données NoSQL (Cassandra, BigTable…)
● Moteur de recherche (Elastic Search...)
Compétences appréciées :
● Kafka-Stream
● Google Cloud Platform (GCS, BigQuery, GKE, Cloud Pub/Sub, Dataproc, …)
● Software Craftsmanship.
● Veille technologique
● Participation à des meetings, des meetups, à la communauté Big Data
Compétences personnelles :
● Très bonne communication écrite et orale (livrables et reportings de qualité)
● Esprit d'analyse et d'amélioration continue
● Curiosité, autonomie et capacité à travailler plusieurs projets en parallèle