Welcome to Sacha's freelance profile!
Location and workplace preferences
- Location
- Paris, France
- Can work onsite in your office in
-
- around Paris 14e Arrondissement and 50km
Preferences
- Project length
-
- Between 3-6 months
- ≥ 6 months
- Business sector
-
- Aviation & Aerospace
- Digital & IT
- Agriculture
- Architecture & Urban Planning
- Arts & Crafts
+46 autres
- Company size
-
- 1 person
- 2-10 people
- 11 - 49 people
- 50 - 249 people
- 250 - 999 people
+2 autres
Verifications
Freelancer code of conduct signed
Read the Malt code of conduct
Languages
Categories
Skills (26)
- BigData
-
- Data Science
-
-
-
-
-
- Frameworks
-
- Databases
-
Sacha in a few words
J’ai suivi le master Informatique, Mathématiques et Statistiques appliquées à l’école d’ingénieurs Télécom SudParis, promo 2016. J'évolue depuis dans le monde professionnel et tout le long de mes expériences, ma casquette a oscillé entre Data Scientist et Data Engineer. Essentiellement, mon travail consiste à conceptualiser et maintenir des applications de machine learning ou de data processing. Quotidiennement cela revient à:
- Récupérer et cadrer un besoin auprès d’un métier (définition d'objectifs, de mesures de performance...),
- Formaliser le besoin et récupérer les données disponibles et pertinentes (SQL/Spark/Hive.Pyspark...)
- Faire de la veille technologique sur les méthodes disponibles (beaucoup de lecture de papiers état de l’art)
- Implémenter un POC
- Déployer le modèle en production (on premise ou sur le cloud)
En parallèle de mon parcours professionnel j'ai toujours été proche du milieu de l'enseignement. J'ai donné des cours de Data Science pour le bootcamp Jedha, j'ai donc une certaine facilité pour communiquer et transmettre mes idées.
Pour de plus amples informations sur les projets sur lesquels j’ai pu travailler je vous laisse consulter mon profil Linkedin.
Concernant ma stack technique:
- Big Data / Traitement de données: SQL, Hive, Spark, Pyspark, BigQuery, Redshift
- Machine Learning: Python (scikit-learn, tensorflow, tensorflow probability), Spark ML, R
- Production: Git, Concourse, Docker, Flask
- Cloud: environnements Google Cloud et AWS
- Dataviz: Plotly, Bokeh, R-Shiny.
Je suis disponible pour toute question, vous avez mes coordonnées dans mon CV alors n'hésitez pas !
À très vite,
Sacha
Experience
Jedha Bootcamp
Tech
Professeur de Data Science - As a freelancer
de 3 à 6 mois.
Chaque module s’étale sur 1 mois et demi et a lieu le lundi soir et le samedi toute la journée.
Les classes sont constituées d’une vingtaine d’élèves possédant un niveau suffisant pour pouvoir suivre le
bootcamp.
Dans ce cadre, j’ai animé les 3 modules suivants: Python / Analyses Statistiques / Deep Learning
Pôle emploi - Pôle emploi
Public sector
Lead Data Scientist - As a freelancer
• Elaboration d'un cockpit à destinations des conseillers entreprise pour objectiver la prise de décision tout au long de la gestion des offres d'emploi.
- Prédiction du délai de pourvoi d'une offre d'emploi
- Comparaison du délai prédit à celui d'offres similaires sur un même contexte géo-économique
- Scoring de l'offre relativement au contexte
- Explication des prédictions avec des outils de machine learning pour accompagner conseillers et recruteurs dans leurs prises de décision.
• Création d'un outil de ciblage d'entreprises avec un fort potentiel d'embauche pour aider les conseillers entreprise dans leur démarche de prospection et de promotion de profil de demandeur d'emploi.
- Modèle LSTM qui utilise les embauches passées des entreprises + des données "statiques" sur l'entreprise + des indicateurs géo-économiques sur le bassin d'emploi.
- Prédiction du nombre d'embauches avec une granularité au semestre
Livrables:
Représentant du département Big Data au sein du projet, discussions avec les équipes métier pour
définir et suivre le besoin et les exigences du projet (définition des KPI, etc)
Listing et récupération des données sous Python/Spark
Listing des librairies Python et implémentation de plusieurs algorithmes (XGBoost, RandomForest,
Réseau de Neurones) pour prédire le délai de pourvoi d’une offre d’emploi, séléction du meilleur
modèle Python scikit-learn/tensorflow
Packaging de l’application Python
Mise en production du meilleur modèle une fois que les KPIs ont été atteints (échanges avec les
équipes DSI pour les exigences fonctionnelles, implémentation de l’API en Python/Flask et
Dockerisation)
Modelisation, Machine Learning - Deep Learning: Python / Scikit-learn / Tensorflow Probability / LIME / SHAP
Mise en production: Python / Hive / Docker / Flask - API REST
Zenly
Software Publishing
Consultant Data Scientist - As a freelancer
Dans ce cadre et dans le but d’améliorer le produit, j’ai été contacté pour implémenter un algorithme de détection de mode de transport en temps réel utilisant les données de sensors des smartphones des utilisateurs. Les sensors sont par exemple l’accelérometre, le GPS ou le baromètre. Ils fournissent une
représentation physique de l’état du téléphone.
Les différents modes de transport prédits sont: Statique, marche, cours, à vélo, motorisé, train
Livrables:
Étude de l’état de l’art, veille technologique
Collecte des données des différentes sources notamment les données d’accelérometre et de GPS générés par des smartphones de l’entreprise ou des bases de données
Mise en forme des données (harmonisation de l’échantillonage entre les différentes sources notamment) (Python/Numpy)
Traitement de données: data augmentation, data flipping, data rotation
Algorithme de traitement du signal via un réseau de neurones convolutionnel qui prédit le mode de transport actuel d’un individu par tranche de 0.3ms (Python/Tensorflow)
Évaluation du modèle (optimisation, calcul d’hyper-paramètres optimaux…) => Accuracy globale de 92%
Implémentation d’un démonstrateur sur smartphone pour pouvoir tester le modèle entraîné en temps réel. Le démonstrateur est implémentée en Java et embarque le modèle au format TensorflowLite (adapté pour être shippé sur mobile). L’application affiche en temps réel la probabilité de chaque mode de transport
Rédaction de documentation technique.
MWM
Tech
Data Scientist
Intégré au département Data du groupe, j'ai eu l'occasion de travailler sur plusieurs projets dont notamment:
Projet 1:
Les Product Owner passent beaucoup de temps à faire de la veille pour avoir un panorama des applications à la mode. Le but du projet sur lequel j’ai travaillé est d’automatiser ce travail de veille pour extraire automatiquement les secteurs à haute valeur ajoutée sur lesquels il faut investir.
Dans ce cadre, j’ai travaillé sur un projet de segmentation des applications mobiles permettant de les regrouper automatiquement par thématique (des thématiques plus fines que celles proposées sur les stores).
Une fois ces groupes formés, j’ai travaillé sur un 2ème outil qui utilise l’historique des données de revenus et de téléchargement des applications dans chacun de ces groupes pour faire des prédictions de tendance et extraire les groupes à forte valeur ajoutée
Livrables:
Construction et implémentation d’un algorithme de clustering (segmentation) des applications du playstore et de l’apple store. Utilisation de la technologie graphe, implémentation en Python. Mise en production avec API FLASK + docker
Construction et implémentation d’un algorithme de prédiction de tendance en terme de revenus et de téléchargement. Utilisation de séries temporelles. Python/Facebook Prophet. Mise en production avec API FLASK + docker
Projet 2:
Projets de segmentation d'utilisateurs incluant la prédiction de l’âge, du sexe et des différents segments d’appétence des utilisateurs des applications mobiles MWM.
Livrables:
Construction et implémentation de modèles prédisant le sexe et l’âge des utilisateurs ainsi que leurs
segments d’appétence en fonction de leur profil (Python/Spark) et mise en production des modèles
sur GCP => Random Forest (extension des arbres de décision)
Extraction des bases d’utilisateur durant les campagnes marketing
Maintenance des modèles
Création de reportings pour suivre l’avancement des campagnes (Dashboards)
Présentation des résultats aux équipes de Sales
Ogury - OGURY
Press & Media
Data Scientist
Dans le cadre de mon stage de fin d’études, j’ai été amené à travailler sur un outil de recommandation d’applications mobiles pour des campagnes publicitaires.
Livrables:
Collecte des données depuis le datalake sur AWS (requêtes SQL Hive et Scala Spark).
Application d’un algorithme de machine learning sur Spark (ALS, factorisation de matrices) permettant d’extraire les applications les plus susceptibles d’être intéressantes pour un utilisateur donné
Implémentation d’un package python de visualisation de données pour des besoins interne (Python + librairies Bokeh Plotly)
Recommendations
Check out Sacha's recommendations