Data Analyst / Data Scientist – Détection de fraude (Python / PySpark) @ Aix - Freelance
Freelance Entre 4 et 6 mois Aix-en-Provence (Bouches-du-Rhône)
Description de l'offre
Taux journalier (TJM): 500-600 € selon profil et expérience
📍 Localisation : Aix-en-Provence
📅 Démarrage : 15 avril 2026
⏳ Durée : 6 mois ferme + 2 périodes de 9 mois renouvelables (jusqu’à 24 mois)
👤 Expérience attendue : 3 à 7 ans
Contexte de la mission
Dans le cadre du renforcement d’une équipe spécialisée dans l’analyse avancée de données, un Data Analyst expérimenté est recherché afin de contribuer à des cas d’usage orientés détection et analyse de comportements à risque.
L’intervenant rejoindra une équipe dédiée à l’exploitation des données métiers afin d’identifier des anomalies, construire des modèles analytiques et améliorer la compréhension des processus sensibles à partir des données du système d’information.
L’environnement de travail repose sur une plateforme Big Data Hadoop et s’appuie sur des technologies Python et PySpark.
Missions principales
Intégré à l’équipe Data, le consultant interviendra notamment sur :
Analyse et exploitation des données issues du domaine Individu / Allocataire
Étude de la cohérence et de l’impact des données dans les processus métiers sensibles
Mise en œuvre de cas d’usage analytiques orientés détection d’anomalies ou de fraude
Croisement et enrichissement de données pour produire des analyses ou modèles prédictifs
Développement de produits data réutilisables (scripts, analyses, datasets enrichis…)
Contribution au respect des normes, bonnes pratiques et standards de l’équipe Data
Production de restitutions analytiques pour les équipes métiers et décisionnelles
Environnement technique
Plateforme et technologies utilisées :
Big Data : Hadoop
Langages : Python, PySpark, SQL
Data science / analyse : Python ecosystem
Restitution : Power BI, PowerPoint
Architecture data : traitements analytiques et croisement de datasets volumineux
Livrables attendus
Le consultant devra notamment produire :
Programmes et traitements analytiques sur plateforme Big Data
Analyses et études de données
Supports de restitution des résultats (présentations ou dashboards)
Informations complémentaires
Volume estimé : environ 210 jours par an
Mission réalisée sur site à Aix-en-Provence
Profil recherché
Compétences requises
Compétences techniques
Environnement Big Data (Python / PySpark) — Niveau 3 : Maîtrise
(capacité à travailler en autonomie dans des environnements de traitement de données volumineuses)SQL / requêtage de données — Niveau 2 : Pratique
(capacité à analyser les données et construire des requêtes complexes)Data visualisation et restitution d’analyses (PowerPoint, dataviz) — Niveau 2 : Pratique
(présentation claire et structurée des résultats)Analyse de données et projets de Data Science — Niveau 3 : Maîtrise
(expérience significative sur des cas d’usage analytiques ou prédictifs)
Compétences métier
Compréhension des besoins métiers et proposition de solutions data adaptées — Niveau 3 : Maîtrise
(capacité à cadrer un besoin, proposer des analyses pertinentes et porter les sujets)Expérience sur des domaines sensibles (fraude, risque, conformité, contrôle) — Niveau 2 : Pratique
À propos de Collective.work
Collective.work est la plateforme de recrutement nouvelle génération pour trouver votre prochain emploi.
Fort d'une grande expertise dans l'IA, Collective.work permet de mieux cibler les offres et leurs candidats correspondants, créant ainsi un système beaucoup plus fluide que les acteurs traditionnels.
Plus de 10,000 recruteurs utilisent Collective, permettant à des dizaines de milliers de candidats de trouver leur futur emploi chaque jours