Les offres de “Collective.work”

Il y a 7 joursCollective.work

🧩 Lead Data Engineer – Hadoop / Spark / Python (Contexte Big Data) - Freelance

  • Freelance
  • Entre 7 et 12 mois
  • Lyon (RhĂ´ne)

Description de l'offre

Taux journalier (TJM): 💶 Budget : 500 € HT/j max / 50-60 Keuros annuel (selon profil)

🧩 Lead Data Engineer – Hadoop / Spark / Python (Contexte Big Data)

🗂️ Informations pratiques
📍 Département : Lyon (69)
🗓️ Démarrage : 20/04/2026
⏳ Durée : 36 mois, reconductible
đź§ľ Contrat : CDI ou freelance
💶 Budget : 500 € HT/j max / 50-60 Keuros annuel (selon profil)
🧑‍💻 Télétravail : 2 jours/semaine
🧠 Séniorité : senior (+7 ans)
👤 Poste ouvert : 1
🌍 Secteur : Protection sociale / Data

đź§© Contexte

Dans un environnement Big Data critique, vous intervenez sur une plateforme Hadoop Cloudera dédiée à la gestion et à l’exploitation de volumes importants de données.

La mission s’inscrit dans un contexte de renforcement des capacités data avec des enjeux forts autour de la performance, de la maintenabilité et de l’industrialisation des traitements.

Vous rejoignez une équipe data avec un rôle clé à la fois technique et transverse, incluant du lead technique et de l’accompagnement.

🎯 Missions principales

  • Prendre en charge les Ă©volutions et la maintenance des pipelines d’alimentation du Data Lake

  • DĂ©velopper et optimiser les traitements Big Data (Spark / Hive / SQL)

  • Mettre en place des extractions de donnĂ©es complexes

  • Assurer un rĂ´le de lead technique (revue de code, cadrage technique, accompagnement)

  • Participer au support niveau 2 et Ă  la rĂ©solution d’incidents

  • Optimiser les performances des traitements et de la plateforme

  • Structurer l’activitĂ© (JIRA, documentation, bonnes pratiques)

  • RĂ©aliser du reverse engineering sur un SI data existant

  • Accompagner les utilisateurs et diffuser les bonnes pratiques

🛠️ Environnement technique

Big Data

  • Hadoop (Cloudera)

  • Hive / Impala

  • Spark / PySpark

  • YARN

Langages & scripting

  • Python (data processing / scripting)

  • Shell avancĂ© (bash)

  • SQL (niveau intermĂ©diaire Ă  avancĂ©)

Data Engineering

  • Pipeline data (jointures, optimisation, partitionnement…)

  • Optimisation Hive / Spark

  • Gestion de fichiers HDFS

Outils

  • Linux

  • JIRA

  • VBA / Jupyter (ponctuel)

Bonus

  • Kafka

  • Zeppelin

Profil recherché

👤 Profil recherché

Expérience

  • +7 ans d’expĂ©rience en Data Engineering / Big Data

  • ExpĂ©rience significative sur environnement Hadoop / Cloudera

Compétences clés

  • Très bonne maĂ®trise de Spark / PySpark

  • Solide expĂ©rience en Hive (optimisation impĂ©rative)

  • MaĂ®trise du Shell scripting avancĂ©

  • Bonne comprĂ©hension de YARN et des logs Hadoop

  • CapacitĂ© Ă  dĂ©velopper et optimiser des pipelines data complexes

  • Bonne maĂ®trise de SQL (CTE, comprĂ©hension fonctionnelle des requĂŞtes)

Compétences attendues

  • Gestion de fichiers et traitements sur HDFS

  • Lancement et tuning de spark-submit

  • CapacitĂ© Ă  lire, comprendre et maintenir du code existant

  • Forte capacitĂ© d’analyse et de reverse engineering

Soft skills

  • Leadership technique et accompagnement

  • Communication claire et pĂ©dagogie

  • Rigueur et sens de l’organisation

  • CapacitĂ© Ă  Ă©voluer dans un environnement exigeant et en production

Ă€ propos de Collective.work

Collective.work est la plateforme de recrutement nouvelle génération pour trouver votre prochain emploi.

Fort d'une grande expertise dans l'IA, Collective.work permet de mieux cibler les offres et leurs candidats correspondants, créant ainsi un système beaucoup plus fluide que les acteurs traditionnels.

Plus de 10,000 recruteurs utilisent Collective, permettant Ă  des dizaines de milliers de candidats de trouver leur futur emploi chaque jours

Faire de chaque avenir une réussite.
  • Annuaire emplois
  • Annuaire entreprises
  • ÉvĂ©nements