Devops - Freelance
Freelance Paris (Paris)
Description de l'offre
Taux journalier (TJM): 500
Missions
Participer à l’intégration des applications au SI de l’entreprise ferroviaire, automatiser l’intégration continue, le déploiement des applications et de l’infrastructure ainsi que la surveillance et le maintien en conditions opérationnelles pour mettre en œuvre un écosystème SURFO fiable.
Améliorer les pipelines de CI des différents projets logiciels :
Respect des bonnes pratiques recommandées en interne ;
Systématiser l’exécution des tests unitaires avec Gitlab CI ;
Construire les images docker utilisées pour le CI des logiciels depuis Gitlab CI ;
Mettre en place des tests d’intégration permettant de tester des chaînes complètes d’acquisition, enregistrement, traitement et distribution des données ;
Rédiger la documentation technique et utilisateur associée ;
Développer ou améliorer les pipelines de livraison continue, en reposant sur Gitlab CI, JFROG Artifactory et Harbor ;
Déploiement des packages à l’aide de playbooks Ansible quand c’est pertinent ;
Rédiger la documentation technique et utilisateur associée.
Développer des scripts et playbooks Ansible pour automatiser l’installation des systèmes embarqués :
Installation de l’OS Linux, firmware, bios, … ;
Installation des packages et configuration du système et des solutions de monitoring ;
Installation et configuration des logiciels SURFO ;
Mise en place de tests de validation de la plateforme ;
Rédiger une procédure décrivant comment réaliser une installation à partir d’un serveur brut.
Participer à l’intégration de l’écosystème au SI :
Participation à la conception de l’architecture de la solution ;
Suivi des démarches auprès des entités concernées ;
Développer le code de déploiement des infrastructures de l’écosystème SURFO :
Concernant la plateforme Data de R&D constituée de serveurs on-premise :
Configuration des systèmes pour le calcul ;
Configuration des services : workers de CI, environnements de calcul, outils de gestion des données, de MLOps, proxy, orchestrateur de tâches, … ;
Concernant les applications de transformation et de distribution des données :
Conteneurisation ;
Déploiement des applications de production (possiblement dans Kubernetes).
Mise en œuvre des règles de sécurisation prescrites par les responsables de la sécurité des SI ;
Rédaction des dossiers d’exploitation décrivant comment déployer et maintenir l’écosystème application par application.
Maintien en conditions opérationnelles de l’écosystème SURFO :
Industrialiser la solution de monitoring pour surveiller l’état de santé de l’infrastructure SURFO, actuellement en POC avec Telegraf – InfluxDB – Grafana et y ajouter une détection des anomalies ;
Administration des systèmes Linux ;
Proposer et mettre en œuvre une solution pour conserver les systèmes embarqués à jour, avec notamment détection des failles et mise à jour des OS ;
Proposer et mettre en œuvre des solutions pour la montée en version des différentes applications en minimisant l’impact sur la disponibilité ;
Mettre en place une solution de sauvegarde et de restauration des données importantes vers le cloud ;
Rédiger la documentation utilisateur dans le Wiki SURFO.
Livrables attendus
Concernant l’amélioration du CI et CD :
Le code source des pipelines, scripts et dockerfile associés, documentés avec soin ;
Le code source des tests unitaires et d’intégration ;
Le code source de livraison continue des projets logiciels non packagés ;
Le code source de déploiement exécuté par des pipelines Gitlab CI si requis ;
La documentation utilisateur décrivant les bonnes pratiques et règles à respecter concernant le CI/CD.
Concernant l’installation des systèmes embarqués :
Les scripts et playbooks automatisant la majorité des étapes d’installation ;
Les scripts de validation d’une installation ;
Une procédure documentant comment installer un nouveau système pas à pas ;
La documentation technique expliquant comment mettre à jour les scripts.
Concernant l’intégration au SI, pour les différentes plateformes :
Les documents décrivant l’architecture logique et la méthodologie de déploiement mises en œuvre ;
Le code source Terraform de déploiement des infrastructures cloud, s’il y en a ;
Le code Ansible et les scripts de déploiement et de configuration des environnements ;
Des rapports présentant les mesures de sécurisation mises en œuvre.
Concernant le maintien en conditions opérationnelles :
Les dossiers d’exploitation décrivant la méthodologie de MCO pour chaque application ;
Le code source et la documentation et procédures associées assurant les mises à jour de l’infrastructure, des environnements et des applications ;
Le code source et la documentation assurant la sauvegarde régulière et la restauration des données importantes de l’écosystème ;
Des dashboards permettant de surveiller l’ensemble de l’infrastructure et d’alerte en cas d’incidents.
Concernant le monitoring de l’écosystème SURFO :
Le dossier d’architecture décrivant la solution industrielle à mettre en œuvre ;
Le code source de construction et de déploiement de l’infrastructure de monitoring ;
Le code d’instrumentation des infrastructures et applications, optimisé pour minimiser la consommation de bande passante ;
Le code des dashboards de visualisation des métriques collectées ;
Une solution de détection d’alertes et de remontées d’anomalies ;
La documentation décrivant la solution ;
Un guide de développement décrivant comment instrumenter des infrastructures et des applications, comment visualiser les métriques et comment détecter des anomalies ;
Un guide utilisation de la plateforme de monitoring pour la maintenance de l’écosystème.
Outils & Environnement
Maîtrise de Python
Maîtrise de GNU/Linux, bash et des réseaux. Capacité à installer et configurer des services, surveiller l’usage des ressources
Plusieurs expériences professionnelles en DevOps, couvrant la mise en œuvre de pipelines de CI/CD, la sécurisation de systèmes, l’administration système, la construction et l’orchestration d’environnements
Une expérience en monitoring d’applications et de systèmes en production
Bonne connaissance des principes et de la mise en œuvre de pipelines de CI et CD avec Gitlab
Maîtrise de Ansible
Bonne connaissance en bases de données (PostgreSQL)
Excellentes capacités d’analyse et de résolution de problèmes
Esprit d’innovation et passion pour l’informatique
Aptitude pour la rédaction documentaire
La connaissance de JFROG Artifactory, Harbor, Terraform serait un plus
Une formation scientifique serait un plus
Environnement technique :
C++, vcpkg, CMake
Python, uv, NumPy, SciPy, Numba, Pytorch, pydantic, pytest, asyncio
Protobuf, gRPC, REST, OpenID, MQTT, websocket
PostgreSQL, Nginx, Redis
Telegraf, InfluxDB, Grafana
Linux, ssh, réseaux, certificats TLS
Docker, Gitlab, GitLab-CI, Jfrog Artifactory, Harbor, Hashicorp vault, SonarQube, Checkmarkx
Microsoft Azure
Bash, Ansible
Améliorer les pipelines de CD
Conditions de travail
Expérience : plus de 7 ans
Localisation : Paris
Démarrage : ASAP
Profil recherché
- Maîtrise de Python
- Maîtrise de GNU/Linux, bash et des réseaux, avec capacité à installer et configurer des services et surveiller l’usage des ressources
- Plusieurs expériences professionnelles en DevOps, couvrant la mise en oeuvre de pipelines de CI/CD, la sécurisation de systèmes, l’administration système, la construction et l’orchestration d’environnements
- Expérience en monitoring d’applications et de systèmes en production
- Bonne connaissance des principes et de la mise en oeuvre de pipelines de CI et CD avec Gitlab
- Maîtrise de Ansible
- Bonne connaissance en bases de données (PostgreSQL)
- Excellentes capacités d’analyse et de résolution de problèmes
- Esprit d’innovation et passion pour l’informatique
- Aptitude pour la rédaction documentaire
- La connaissance de JFROG Artifactory, Harbor, Terraform serait un plus
- Une formation scientifique serait un plus
À propos de Collective.work
Collective.work est la plateforme de recrutement nouvelle génération pour trouver votre prochain emploi.
Fort d'une grande expertise dans l'IA, Collective.work permet de mieux cibler les offres et leurs candidats correspondants, créant ainsi un système beaucoup plus fluide que les acteurs traditionnels.
Plus de 10,000 recruteurs utilisent Collective, permettant à des dizaines de milliers de candidats de trouver leur futur emploi chaque jours