Welcome to Slim's freelance profile!
Location and workplace preferences
- Location
- Île-de-France, France
- Can work onsite in your office in
-
- around and 50km
Preferences
- Project length
-
- ≤ 1 week
- ≤ 1 month
- Between 1-3 months
- Business sector
-
Would prefer to avoid:Banking & Insurance
- Company size
-
- 11 - 49 people
- 50 - 249 people
- 250 - 999 people
- 1000 - 4999 people
- ≥ 5000 people
Verifications
Freelancer code of conduct signed
Read the Malt code of conduct
Reputation
Languages
Categories
Skills (29)
- Architecture
-
- Cloud
-
Beginner Intermediate Advanced
-
-
Beginner Intermediate Advanced
-
- Containerization
-
-
-
Slim in a few words
Création de plateforme Data/Cloud from scratch (infra, usine logicielle, CICD, gouvernance).
Recrutement, management et formation d’équipes de dev et devops.
Développement en différents langages (java, scala, python, go).
Audit technique et de sécurité.
Experience
BPCE - BPCE
Banking & Insurance
GCP Security Auditor - As a freelancer
SERVIER MONDE - Servier
Pharmaceuticals industry
Architecte Cloud - As a freelancer
• Definition de l’architecture de la plateforme
• Mise en place des composantes transverses (VPC, CICD, GKE, Gouvernance,...)
• Mise a disposition des environnements des Business Units
• Sécurisation de la plateforme pour être habilité a contenir des données de santé.
• Assistance et aide a la montée en compétences des Features Teams des Business Units.
Renault Digital - Groupe Renault
Automobile
Architecte Cloud et Data - As a freelancer
Je suis intervenu dans la phase POC qui a précédé le projet pour valider l’approche ainsi que la pertinence des données.
Ensuite et pour l’industrialisation des processus j’ai défini l’architecture, mis en place l’infrastructure de collecte et traitement des données et participé a l’implémentation des pipelines de machine learning.
Groupe SeLoger
Real Estate
Architecte Data - As a freelancer
- initialisation de l'infrastructure adéquate.
- sensibilisation a l'état d'esprit Data et aux bonnes pratiques associées en général (DevOps, CI,...)
- Implémentation des premieres Data Pipeline qui exploitent la donnée du site en y appliquant les algorithmes
de Data Science et les mettre a disposition (exposition) - Création d'un premier noyau de l'équipe Data.
Dans un premier temps, j’ai travaillé sur la mise en place d’un cluster HDP entièrement automatisée (install, gestion, evolution ) avec ansible via l’API d’ambari.
Ensuite, j’ai travaillé sur l’industrialisation des algorithmes développés par les Data Scientists aussi bien sur leur implémentation que sur la Data Pipeline dans la quelle ils s’intègrent: ingestion de données, nettoyage/ preparation des données, training, pré-calcul et enfin exposition des API.
La deuxième phase de ma mission fut de migrer le projet d’une infrastructure on premise vers le cloud Amazon Web Services.
GENERALI FRANCE - Groupe Generali
Banking & Insurance
Expert Kafka - As a freelancer
Carrefour - Carrefour
Retail (Large Retailers)
Architecte Big Data: Kafka, Spark, Mesos, Ansible,... - As a freelancer
Je suis intervenu dés la phase de définition de la plateforme et défini en grande partie les choix architecturaux et technologiques aussi bien en terme de frameworks et backends, que de méthodes et outils de développement ou encore sur les aspects ‘ops’ (provisionning, deploiement, monitoring,...).
L’architecture que j’ai définie consistait en une plateforme avec deux composantes principale:
- une composante “on-line” qui était responsable premièrement de la collecte de données depuis les magasins et les backoffices de stock ainsi que les données de référentiels des bases centrales; ensuite une infrastructure de traitement de données en temps réel basée sur kafka, mesos et spark-streaming pour effectuer la normalisation, les agrégations et l’enregistrement des résultats soit dans Cassandra, soit dans Elasticsearch
ou parfois les deux. En fin une couche d’API en micro-services expose ces résultat aux applications clientes.
- une composante off-line, qui se rapproche d’un datalake classique contenant toutes les données ingérée dans les topic kafka, les référentiels et quelques datasets d’enrichissement et qui servait a faire des traitement en batch pour sortir des métriques et des agrégations avec une profondeur, une précision et richesse
plus importante que celles fournie par la composante online.
Outre les réalisations et les choix technique j’ai insisté et travaillé sur les bonnes pratique de développement (agilité, TDD, CI,...) et l’industrialisation de la solution (ansible, docker, rundeck) ainsi que les process de recrutement (exercices de code, entretien face a toute l’équipe,...) pour constitué une équipe de haut niveau.
Canal+ - GROUPE VIVENDI
Press & Media
Developpement d'un moteur recommendation : Scala, Akka, Elasticsearch, LevelDB, Redis, Spray.io - As a freelancer
Je suis intervenu pour proposer et implementer une solution qui permet d’exploiter des algorithmes de recommandations développés par des équipes tierces (marketing et data-scientist).
La solution se base sur un cluster hadoop pour la préparation des données et le training des algorithmes; un cluster Elasticsearch et une base Redis comme backends et quelques micro-services (REST) qui exposent les résultats.
Viadeo
Social Networks
Architecture Team: Hadoop, ElasticSearch, Axon, Protocol buffer - As a freelancer
Embix
Senior Developper: Hadoop, Mapreduce, Hbase, Cassandra, Netty, CQRS, EventSourcing - As a freelancer
LaCub
Proof Of Concept: Scala, Akka, Redis, Hbase, Lucene, ElasticSearch - As a freelancer
POWERSPACE
LEAD Hadoop Team: Hadoop, Mapreduce, Hbase, ...
3 recommendations
Check out Slim's recommendations