Elkhader Fatni

Data engineer - Consultant Big Data

Moves to Massy

  • 48.7305
  • 2.2765
  • Indicative rate €600 / day
  • Experience 2-7 years
  • Response rate 100%
  • Response time A few days
Propose a project The project will only begin when you accept Elkhader's quote.

Availability not confirmed

Propose a project The project will only begin when you accept Elkhader's quote.

Location and geographical scope

Location
Massy, France
Can work in your office at
  • Massy and 50km around

Verifications

Skills (42)

Elkhader in a few words

Elkhader Fatni est data engineer. Il intervient sur l’ensemble des projets data et notamment d'analyse prédictive touchant par exemple aux problématiques de fraude, de fidélisation client, de blanchiment d'argent et de classification automatique. Ingénieur diplômé de Sup'Galilée, spécialisé en recherche d'information (data mining) et analyse de contenu (machine learning), ce féru de challenge participe à divers datathons et accompagne les clients dans leurs projet devops Big Data (développement de datalab, POC., industrialisation...)

Experience

Crédit Agricole SA - Groupe Crédit Agricole

Banking & Insurance

Data Engineer

July 2019 - Today

Au sein du Pôle Développement Clients et Innovation, le DataLab Groupe Crédit Agricole est un centre de compétences dédié aux sciences de la donnée et à leurs applications dans le domaine bancaire. Son rôle est de créer des approches innovantes pour la valorisation de la donnée interne et externe, qu’elle soit structurée ou non structurée. Dans le cadre de ses missions, des thématiques scientifiques à forte valeur ajoutée sont étudiées : Apprentissage Automatique, Auto-ML, Traitement du Langage Naturel, Process Mining, Time Series Mining, Deep Learning, Géomatique, etc.

Au sein de l’équipe « Digibiz » (10 personnes) , conjointement avec des partenaires internes (Caisses Régionales) :
- Coordination des différents interlocuteurs (métiers, data scientists, Data Analysts) et mise à leur disposition de différente solution adaptée à leurs besoins
- Participation majeure à la conception de l’architecture full stack, APIsée, à la performance des algorithmes
- Conception, dimensionnement et mise en place de l’infrastructure Cloudera Dev et Recette
- Conception puis mise en place de l’architecture/flux Data au sein du cluster (data layer)
- Développement des solutions IA industrielles
- Mise en place et lead technique des bonnes pratiques DevOps
- Conception et implémentation du projet en méthode ScrumBan avec les acteurs métiers
- Programmation fonctionnelle en Scala
- Animations et encadrement des cérémonies agiles

Natixis - BPCE

Banking & Insurance

Data engineer Spark Scala

September 2018 - April 2019

La direction métier du domaine Finance – Comptabilité et Ratios Prudentiels est en attente d’une solution et d’un support basé sur les technologies BigData et la notion associée de Datalake. Le métier a une attente très forte vis-à-vis de ce datalake qui est vu comme accélérateur de solution pour l’ensemble des futurs reportings règlementaires à mettre en place de 2017 et 2020, mais également pour la mise en qualité des données Comptables – Prudentielles et Risques intra SI Natixis.

Au sein de l’équipe « Datalake » Finance & Risque (15 personnes) :
- Développements de projets innovants de gestion (stockage), de traitement et de reporting de la donnée
- Conception et implémentation de ces projets en méthode Agile avec les acteurs métiers
- mise en œuvre de technologies et frameworks Big Data et NoSQL comme Hadoop, Kafka, Nifi, Spark, Scala, Elastic Search, Hive, Kerberos, Kibana, Grafana…
- Développement en Spark / Scala au sein d'une équipe Agile pour la production de reporting comptables jusqu'à la phase d’industrialisation
- Programmation fonctionnelle en Scala
- Automatisation des flux de données sous NiFi et Control-M
- Utilisation de toute la chaine d'intégration continu en place chez Natixis (DevOps), ordonnancement et automatisation des jobs big data
- Animations des cérémonies agiles

BNP PARIBAS SA - BNP

Banking & Insurance

Data Engineer Python/Java

May 2017 - September 2018

Dans le cadre d'un programme de refonte du SI des Risques Opérationnels du groupe BNPP, le choix d'une architecture Big Data HDP a été fait pour constituer le data backbone de ce nouveau SI. Ce programme embarque des équipes MOE/AMOA/Architecture dans une démarche agile. L'enjeu du projet est de fournir à la direction du groupe et au régulateur de la banque, un reporting de qualité et la possibilité d'avoir une analyse prédictive afin de pouvoir maîtriser et réduire la provision de leurs risques opérationnels.

Au sein du projet Datalytics (10 personnes, BA, experts, développeurs):
- Mise en place méthodologie de projet depuis prototypage jusqu’à l’industrialisation
- Mise en place puis support des business team vers data team vers achievement team
- Étude & installation/administration des outils Big Data (plateforme BigInsight puis HDP)
- Intégration des données legacy au sein du data lake (issue de CSV, de BDD oracle, de BO, base ORX…)
- Traitements et mise en qualité des données par une approche en 3 couches : raw-normalized-valuable data
- Support à la mise en place de reporting
- Evolution des reporting classique vers du prédictif (fort enjeu autour des provisions sur risques ops) :
• Apprentissage(s) avec cas internes (apprentissage supervisé données incidents)
• Apprentissage non supervisé (clustering des incidents historiques)
- Présentation des résultats aux partenaires (dataviz) et recommandations business : dataviz interactives (D3.js)
- Industrialisation du POC : migration et conduite des projets prototypes vers l’industrialisation
- Coaching et support à la conduite de projet agile
• Scrum master : daily meeting, sprint review, rétrospective…
• Supervision des outils : JIRA Agile (Confluence)


- Gestion de la sécurité des échanges KAFKA consommateur / producteur.
- Participation au chantier d’harmonisation des formats de messages Json inter-applicatif
- Création et standardisation d’un Framework producer/consumer dédié en Java destiné aux développeurs
- Création des tools de prototypage Data science en Python
- Etude du modèle de données sous Jupyter

Natixis - BPCE

Banking & Insurance

Développeur Big Data Python/JAVA & Data Scientist

April 2016 - April 2017

Au sein du département de la sécurité financière, support à la mise en place et à la gestion du dispositif anti-blanchiment et veille médiatique de Natixis. Participation majoritaire à l’implémentation d'un Big Data permettant de lutter contre le blanchiment d’argent et la surveillance médiatique des Tiers.

- Étude & installation/administration des outils Big Data
- Préparation/alimentation de données
o Internes (issue de CSV, de BDD oracle, de mainframe…)
o Externes (web scrapping, éditeur de news…)
• Valorisation et mise en qualité
o Règles métiers et/ou approches statistiques, développement des scripts
• Implémentation et évaluation de modèles prédictifs
o Apprentissage(s) avec cas internes (apprentissage supervisé données KYC)
o Apprentissage non supervisé (clustering des transactions)
• Présentation des résultats aux partenaires (dataviz) et recommandations business
o dataviz interactives (D3.js)
• Industrialisation du POC : migration des développements
• Coaching et support à la conduite de projet
o Scrum master : daily meeting, sprint review, rétrospective…
o Supervision des outils : JIRA Agile (Confluence)

Certifications

charter modal image

Success is a team effort

Contribute to this success and the community's professionalism by signing the Freelancer Code of conduct

Sign the code