Welcome to Youssef's freelance profile!
Location and workplace preferences
- Location
- Paris, France
- Can work onsite in your office in
-
- around Paris and 50km
Preferences
- Project length
-
- Between 1-3 months
- Between 3-6 months
- ≥ 6 months
- Business sector
-
- Aviation & Aerospace
- Digital & IT
- Agriculture
- Architecture & Urban Planning
- Arts & Crafts
+44 other
- Company size
-
- 11 - 49 people
- 50 - 249 people
- 250 - 999 people
- 1000 - 4999 people
- ≥ 5000 people
Verifications
Freelancer code of conduct signed
Read the Malt code of conduct
Languages
Categories
Skills (38)
- Databases
-
-
-
Beginner Intermediate Advanced
- BigData
-
- Architecture
-
Beginner Intermediate Advanced
- All
-
Beginner Intermediate Advanced
-
-
Beginner Intermediate Advanced
Youssef in a few words
Vous portez un projet BIG DATA nécessitant une solution orientée Google Coud Platform ?
En ayant travaillé avec divers clients de l'industrie tels que LVMH, MACIF, Caisse des dépôts, CNAM, OPCO EP, j'ai acquis une expertise dans toutes les phases d'un projet data, depuis la conception de l'architecture jusqu'à la mise en production des pipelines automatisées.
Mes compétences clés:
👉 Conseil et mise en place d'architecture Big Data
👉 Développement de pipeline de données (Collect-Extract-Load-Transform)
👉 Optimisation des coûts
👉 La surveillance de la qualité des données.
⚒️Mes technologies phares:
- Python, GCP, Azure, Airflow, DBT, DataFlow, BigQuery, Terraform, JAVA, TALEND, SPARK, KAFKA, SQL, MongoDB
✅ Contactez-moi pour voir ensemble comment répondre au mieux à votre besoin!
Portfolio
Experience
LVMH - LVMH
Fashion & Cosmetics
🎯 Senior Data Engineer GCP - As a freelancer
Dans le cadre d'une mission en tant que Senior Data Engineer GCP pour les marques du groupe LVMH (Christian Dior, Guerlain, Givenchy,…), le but est de préparer les données qui viennent de plusieurs sources (externe et interne) en les mettant à disposition: datamarts, rapport, data sets pour alimenter des modèles de scoring (data science), API,.....
✔️ Concevoir et développer des pipelines de données répondant aux besoins des utilisateurs techniques et métier de la plateforme data dans une démarche d’industrialisation
✔️ Développement des workflows ELT avec Airflow/Cloud Composer
✔️ Automatisation de la création des services GCP (création automatisée des datasets, tables, clusters, DAG, topic pubsub) et du déclenchement de la CICD (déclenchement du cloudbuild après une action de Merge)
✔️ Développement des flux d’ingestion des données externes LVMH dans GCP (GCS et BQ)
✔️ Collecte et préparation des données (Filtrage, Transformation, Aggregation, etc) avec BigQuery
✔️ Développement des scripts nécessaires pour le calcul des KPI (BigQuery, SQL)
✔️ Ingestion de données (de multiples sources et dans différents formats), stockage, transformation et en les mettants à disposition: datamarts, rapport, datasets pour alimenter des modèles de scoring (data science), API
✔️ Optimiser les performances des requêtes et de stockage des données dans BigQuery (Clustering/Partitioning,..).
✔️ Développer des scripts BigQuery SQL pour le nettoyage et le traitement des données qui respectent des règles métier précises.
✔️ Orchestration de l'ingestion et du traitement des données à l'aide de Cloud Composer et Airflow.
✔️ Réaliser le design de la solution avec les équipes architectures
✔️ Rédiger les Story technique pour les équipes de Développement Data
✔️ Concevoir techniquement les solutions data à implémenter avec l'identification des services GCP à utiliser
✔️ Développer les solutions techniques sur les composants Dataflow, Composer, Big Query
✔️ Travailler de manière à industrialiser sur les solutions (Terraform, GitHub, CI/CD,)
✔️ Documenter techniquement les solutions implémentées
📚 Environnement technique: Python, SQL, GCP, BigQuery, Dataiku DSS GCS, Cloud Run, Build, Scheduler, Airflow, Terraform, GitHub, SQL, Cloud Composer, Docker, CI/CD, Monitoring, Data supervision and alerting.
OPCO EP
Education & E-learning
🎯 Tech Lead Big Data / Talend Big Data - As a freelancer
place des solutions ETL via des extractions TALEND depuis plusieurs sources (Objets: Salesforce, documents: API, Fichiers plats : Volume SFTP), pour les transformer et les intégrer dans des cibles différents en batch
🔹Conception et développement des interfaces Talend d’intégration des flux (CSV, positionnel, XML) et des interfaces de synchronisation inter-bases et reprise de données
🔹Interfaçage entre applications via Webservices (Talend ESB, REST)
🔹Développement des routines java pour les traitements spécifiques
🔹Design des pipelines des données en micro batching, en temps réel et en Change Data Capture. (ETL Talend, ETL Apache KAFKA, Sql ).
🔹Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l’entreprise
🔹Conception/Développement et Optimisation des Jobs Talend Big Data
🔹Maintenance évolutive et suivi de production.
🔹Tests et optimisation des requêtes SQL: Saleforces, et MongoDB.
🔹Développement de traitements d'ingestion, de normalisation et de consommation de données structurées et non structurées
🔹Normalisation des développements Talend Big Data
🔹Contrôle des flux de chargements journaliers
🔹Mise en place de bonnes pratiques de développements Talend
MACIF - AÉMA GROUPE
Banking & Insurance
Tech Lead Data Engineer GCP - As a freelancer
🔹Analyse des spécifications fonctionnelles détaillées SFD
🔹Participation à l’élaboration du dossier d’architecture de la solution à mettre en place
🔹Optimisation des développements existants (Mise en place des bonnes pratiques de développement Talend Big Data).
🔹Création des jobs de migration de données (phase d’initialisation) et des jobs de synchronisation de données.
🔹Développement de routines Java pour implémentation des règles métiers spécifiques (invocation de Web Service, formatage de données, sécurisation des mots de passe…).
🔹Analyse d’anomalie & corrections
🔹Définir l'implémentation des Uses Cases sous GCP
🔹Ingestion des données dans Big Query
🔹Automatisation de Process d'ingestion dans Big Query
📚 Environnement technique: Talend Big Data, Java, Python, Docker, Big Query, Google Cloud Plateforme, Google Data Studio, Data Flow, Cloud Storage, Mongo Db, Control-M
Conseil Département de l'Essonne
Consulting & Audits
⭐️Tech Lead Data Engineer - As a freelancer
🔹 Référent Talend sur plusieurs projets Talend
🔹 Conception/Développement des Jobs Talend
🔹 Préparation et suivi des mise en Production
🔹 Modélisation de l’entrepôt de données « Data Warehouse »
🔹 Conception, Développement et Alimentation d’un entrepôt de données avec TALEND
🔹 Etude, conception et développement d'univers /rapports BusinessObjects.
🔹 Maintenance et surveillance des interfaces TALEND
🔹 Expertise sur les composants Talend
🔹 Chiffrage de la charge, établissement et envoi des devis
🔹 Pilotage et management de l'activité de plusieurs ETP
🔹 Rédaction des conceptions applicatives détaillées CAD des contrats d’interface.
🔹 Identification des risques et remontée des alertes auprès de la gouvernance
🔹 Garant des développements des applications DWH
🔹 Chargement, intégration, documentation et préparation des livraisons
🔹 Rédaction des rapports de comptes rendus d’activités hebdomadaires
🔹 Suivi du plan de capacité de l'équipe et affectation des taches
🔹 Validation des imputations des collaborateurs de l’ensemble de l’activité Hors SID
🎯 Environnement technique : Talend, PostgreSQL, Salesforce, SQL, Shell Unix, Redmine, Java, Jenkins, Control M, GIT/Gitlab, Sql Developer, SAP Business Objects XI, XML, Schéma (XSD), JSON
Caisse des dépôts - CAISSE DES DEPOTS ET DES CONSIGNATIONS
Banking & Insurance
💡 Senior Data Engineer - As a freelancer
CNAF - Caisse nationale d'allocations familiales - CNAF
Banking & Insurance
🎯 Consultant Expert Big Data - As a freelancer
MAIF - MAIF
Banking & Insurance
Consultant Big Data - As a freelancer
Recommendations
Check out Youssef's recommendations