Data Engineer Java / Spark
Ile de France, Paris (75000)
Mis en ligne le 15 janvier 2026 par Marie Calvert (+ d'offres)
DGTL PerformanceType de contrat :Freelance
Métier :Développeur informatique
Expérience :5 ans minimum
Type d'entreprise :Autre type d'entreprise (client final)
Localisation :Ile de France, Paris (75000)
Télétravail :Pas de télétravail
Poste à pourvoir
Site : Paris Montparnasse : 3 jours/semaine obligatoire sur site
Prix d'achat max : 650 euros
Date de démarrage : ASAP
Date de fin : 31/08/2026
Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Contexte: Intervention sur la plateforme data de Crédit Agricole Assurances Solutions.
Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe.
Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle (DGFIP, CDC, AGIRA).
Les principaux déclaratifs concernés sont les suivants :
- FICOVIE
- EAI / FATCA
- IER
- ECKERT
-AGIRA / RNIPP
Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data.
La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Prix d'achat max : 650 euros
Date de démarrage : ASAP
Date de fin : 31/08/2026
Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Contexte: Intervention sur la plateforme data de Crédit Agricole Assurances Solutions.
Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe.
Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle (DGFIP, CDC, AGIRA).
Les principaux déclaratifs concernés sont les suivants :
- FICOVIE
- EAI / FATCA
- IER
- ECKERT
-AGIRA / RNIPP
Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data.
La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Profil recherché
Profil : Data Engineer
Nombre d'années d'expérience : ~5-8 ans d'expérience avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie
Compétences techniques requises :
Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL.
Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka.
Expérience significative en Build et en Run dans des environnements Big Data.
Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc.
Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA.
Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données.
Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation.
Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance.
Connaissance avancée des bases de données relationnelles et non relationnelles.
Excellentes compétences de communication pour collaborer efficacement avec les équipes.
Leadership technique pour encadrer et orienter les membres de l'équipe.
Esprit d'initiative et capacité à résoudre des problèmes techniques complexes.
Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence.
Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Nombre d'années d'expérience : ~5-8 ans d'expérience avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie
Compétences techniques requises :
Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL.
Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka.
Expérience significative en Build et en Run dans des environnements Big Data.
Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc.
Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA.
Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données.
Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation.
Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance.
Connaissance avancée des bases de données relationnelles et non relationnelles.
Excellentes compétences de communication pour collaborer efficacement avec les équipes.
Leadership technique pour encadrer et orienter les membres de l'équipe.
Esprit d'initiative et capacité à résoudre des problèmes techniques complexes.
Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence.
Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Description de la société
DGTL / Signe + est le facilitateur pour tous les acteurs qui recherchent des ressources ou des missions DATA.
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com
Spécialiste du marché Data et BI, nous intervenons dans toute la France comme à l'étranger ; en sous-traitance, pré-embauche, recrutement, portage commercial, portage salarial, etc.
Depuis 2018, nous accompagnons nos clients avec proximité, juste prix et préoccupation éthique de tous les instants.
https://www.dgtl-performance.com