Job Description
<p><u><strong>Missions :<br><br></strong></u></p><ul><li>Réalisation des flux de données en Spark + Kafka</li><li>Optimisation des traitements Java Spark existants</li><li>Orientation / justification des choix de design des traitements Java Spark</li><li>Création de nouveaux micro services en Spark ou Kafka et maîtrise du Stream processing</li><li>Participation à la veille technologique et à la réalisation de POC (algorithme en Java, création de micro services en Spark ou Kafka)</li><li>Implémentation et maintien des flux de collecte, de structuration de données et de stockage</li><li>Déclenchement des traitements via des règles et modèles analytiques permettant la supervision du réseau ou les analyses à froid</li><li>Modélisation des tables intermédiaires si besoin</li><li>Maintenance des traitements déjà en production</li></ul><p><u><strong>Profil recherché :<br><br></strong></u></p><ul><li>Développeur Spark / Kafka</li><li>De formation BAC+5 en développement informatique</li><li>Une expérience de 3 ans et plus en développement informatique</li><li>Maitrise du développement en Java Spark, SQL Spark (Indispensable)</li><li>Bonne connaissance des architectures micro-services, et design des API en Rest</li><li>Être familier avec l’écosystème Big Data (Idéalement avec des expériences précédentes ou à défaut avec des formations adaptées)</li><li>Être familier avec Kafka, HDFS, Hive, Stockage objet</li></ul>