Christophe Labrousse

Data scientist senior

Remote from Toulouse

  • 43.6043
  • 1.4419
  • Indicative rate €400 / day
  • Experience 7+ years
  • Response rate 100%
  • Response time 2h
Propose a project The project will only begin when you accept Christophe's quote.

Available later

Until 2/17/2021

Propose a project The project will only begin when you accept Christophe's quote.

Location and geographical scope

Location
Toulouse, France
Remote only
Works remotely most of the time

Verifications

Languages

  • Français

    Native or bilingual

  • Anglais

    Full professional proficiency

Skills (12)

Christophe in a few words

Ingénieur en informatique et mathématiques appliquées, j’ai commencé ma carrière en étant tour à tour consultant, fondateur de startup, responsable de système d’information, et développeur freelance ; expériences grâce auxquelles j’ai acquis une forte culture « data ».

Depuis 7 ans en tant que consultant et formateur en data science j’ai développé et mis en place des solutions basées sur le machine learning avec Python, scikit-learn, et diverses plateformes cloud. Formateur passionné et pédagogue, j’aime également enseigner à des profils variés la puissance de ces techniques quand elles sont mises en œuvre sur les bons jeux de données.

Passionné, je cherche aujourd’hui un nouveau projet avec de nouvelles données à explorer et à exploiter, pour en retirer toute leur valeur ajoutée.

Experience

TradeShifu

Banking & Insurance

Data Scientist Senior

Toulouse, France

March 2020 - August 2020

Développement de modèles prédictifs à destination de traders intraday : forecast du prix d’ouverture des plusieurs indices, du prix le plus haut, le plus bas, et de clôture. Les prédictions sont actuellement exploitées avec succès par plusieurs milliers de traders.

o Cadre du projet : Recherche et analyse des données, implémentation des pipelines de transformation, optimisation des modèles prédictifs, déploiement en production
o Technologies utilisées : Tensorflow v2, Keras ; scikit-learn, XGBoost ; statsmodel pour les modèles ARIMA, VAR, et GARCH
o Infrastructure utilisée : Microsoft Azure ML
o Ma contribution : J’ai développé toutes les phases du projet : analyse, implémentation, modélisation et mise en production

Airbus - AIRBUS GROUP

Aviation & Aerospace

Data scientist senior

Toulouse, France

February 2019 - December 2019

Avec une équipe de 4 personnes et en tant que data scientist senior, j’ai réalisé un modèle prédictif destiné à anticiper les pannes sur le système de pressurisation cabine (bleed) et optimiser les opérations de maintenance, en se basant sur les séries temporelles des capteurs embarqués ainsi que sur l’historique des opérations de maintenance. En tant qu’expert en Machine Learning, j’ai piloté les compétences complémentaires de l’équipe (data scientist junior, ingénieur système, développeur) pour transformer les données brutes en provenance des avions en prédictions fiables sur les défaillances du système de pressurisation.

o Cadre du projet : Analyse des données, implémentation des pipelines de transformation des données, optimisation des modèles prédictifs, évaluation de leur qualité
o Technologies utilisées : Spark via l’api PySpark en Python ; scikit-learn, Keras pour les modèles LSTM, XGBoost, Hyperopt, stats-model pour les modèles ARIMA, FoundryTS (librairie propriétaire Palantir pour les time series)
o Infrastructure utilisée : plateforme Palantir (foundry) de Airbus (Skywise)
o Ma contribution : J’ai participé à toutes les phases du projet : analyse, implémentation, modélisation et ai guidé les actions de l’équipe en identifiant les pistes à explorer et en utilisant au mieux des compétences de chacun

Groupe Atlantic

Energy & Utilities

Data scientist senior

Toulouse, France

July 2018 - December 2018

A partir des données techniques des pompes à chaleur du Groupe Atlantic, des données d’intervention des opérations de maintenance et des données du call center, j’ai développé un modèle prédictif pour permettre à l’équipe de planification des maintenances annuelles de prioriser leurs interventions. Le modèle final était basé sur des réseaux de neurones récurrents (LSTM) permettant la prévision (forecast) de séries temporelles.

o Cadre du projet : Analyse des données, implémentation des pipelines de transformation des données, optimisation des modèles prédictifs, évaluation de leur qualité
o Technologies utilisées : Scikit-learn, Keras, XGBoost, Catboost, Hyperopt, BigML
o Infrastructure utilisée : serveurs CPU et GPU loués sur FloydHub ; Infrastructure BigML
o Ma contribution : j’ai implémenté la solution en intégralité ; j’ai aidé l’équipe métier à définir le modèle et son cadre d’utilisation ; et j’ai récupéré toutes les données potentiellement utiles auprès des différents services, qu’ils soient métier ou technique.

Human Coders

Consulting & Auditing

Formateur data science

Paris, France

October 2017 - Today

Animation des formations Machine Learning, Deep Learning et Machine Learning Avancé via l’organisme de formation Human Coders en inter et intra entreprises. Animation de 20 formations en 2018 avec une note moyenne de 4,88/5 sur la pédagogie du formateur sur plus de 40 évaluations.

o Conception du contenu : contenu pédagogique progressif alternant explications théoriques, mise en pratique en Python et sur BigML (plateforme de Machine Learning qui ne nécessite pas de code), et retours d’expérience de cas réels.
o Animation : pédagogie progressive et adaptable selon le profil des participants : développeurs, chercheurs, product owners…

Education

charter modal image

Success is a team effort

Contribute to this success and the community's professionalism by signing the Freelancer Code of conduct

Sign the code