Mohamed Zouaoui

architecte big data - expert / cloud aws expert

Moves to Palaiseau, Palaiseau

  • 48.7182
  • 2.2498
  • Indicative rate €1,056 / day
  • Experience 7+ years
  • Response rate 68%
  • Response time A few days
Propose a project The project will only begin when you accept Mohamed's quote.

Availability not confirmed

Propose a project The project will only begin when you accept Mohamed's quote.

Location and geographical scope

Location
Palaiseau, France
Can work in your office at
  • Palaiseau and 50km around
  • Palaiseau and 50km around

Preferences

Business sector
  • E-commerce
  • Energy & Utilities
  • Retail
  • High Tech
  • Hospitality
+6 autres

Verifications

Languages

  • Anglais

    Full professional proficiency

  • Français

    Native or bilingual

Skills (18)

Mohamed in a few words

AWS BIG DATA SPECIALITY CERTIFICATION Software professional with 13 years of experience. with more than 8 years experiences in BigData , NOSQL , Data Science and Machine Learning. Consulting on Hadoop ecosystem : Hadoop, MapReduce, Hbase, Pig ,Hive, Spark,Kafka Managed Hadoop clusters : setup, install, monitor, maintain; ( ansible, terraform ) Distributions : Cloudera CDH, Apache Hadoop , YARN , SPARK Big Data consultant Prototyped Big Data system with Hadoop , Spark , HBase, Cassandra , MongoDB , ElasticSearch , and Lucene, Solr, neo4j,graphql,Java, Designs complete architecture, assuring acceptable performance. Prototyped Highly Distributed System With Akka , Scala , Spark , Spark Mllib Extensive knowledge in data retrieval and preparation using multiple formats ( parquet,ORC,Json,...) 3+ years of experience in Cloud platform (AWS) Implementing Big data GDPR Solution ( Hive , Ranger , Apache Atlas , Masking , Classification , Lineage )

Experience

JohnSnowLabs

Pharmaceuticals

Senior Data/Machine Learning Engineer

February 2020 - Today


Développement des librairies autour de OCR, NLP, Machine Learning et l’apprentissage automatique en utilisant le framework Spark.


AWS, S3, Spark, Spark ML, Databricks, AirFlow, Kubernetes, Tensorflow 2.0, Keras
Tesseract, NLP, OCR, Scala & Python

Weefin

Banking & Insurance

Expert Big Data / Cloud AWS

December 2019 - Today

ESG-CONNECT : application SaaS (Software as a Service) pour l’analyse et le traitement de donnée ESG à destination des gestionnaires d’actifs.

Définition de l’architecture d’une plateforme Cloud sur AWS
Mise en place de procédures et de normes DEVOPS dans l’exploitation de la plateforme

mymoneybank - My Money Bank

Banking & Insurance

Lead Architect Big Data

Paris, France

August 2018 - Today

DATAHUB : Refonte du système d’information MMB
Mise en place de l’architecture et des choix technologiques
Conception de l’architecture applicative
Mise en place de procédures et de normes dans l’exploitation de la plateforme
Conception et Développement des projets d’intégrations des données au sein du datalake DATAHUB.
Accompagnement des Data Scientists dans l’utilisation des outils de data science et de la préparation de la donnée

Autorité des marchés financiers

Banking & Insurance

Lead Architect BIg Data

Paris, France

January 2017 - December 2018

ICY, le nouvel outil de surveillance que l’AMF commence à développer en interne, reposera sur des technologies de type « Big Data », qui permettent d’exploiter rapidement des données représentant des volumes importants et de natures diverses. L’AMF souhaite ainsi renforcer sa faculté d’examen en temps réel pour une plus grande réactivité, mais aussi améliorer la détection des abus de marché grâce à des outils d’intelligence artificielle comme l’apprentissage automatique (machine learning). Certains modèles de détection, pour les manipulations de cours par exemple, pourront être ajustés automatiquement avec ce type de technologie.

Mise en place de l’architecture technique
Mise en place de l’architecture applicative
Mise en place de procédures et de normes dans l’exploitation de la plateforme
Conception et Développement des projets d’intégrations des données au sein du datalake AMF.
Accompagnement des Data Scientists dans l’utilisation des outils de data science

LCL

Banking & Insurance

Expert Big Data

June 2016 - Today

MISE EN PLACE D’UNE PLATEFORME BIG DATA AFIN DE REPONDRE AUX BESOINS DES EQUIPES MARKETING
Conception et Développement du projet DATA-LAYER au sein de
SAB(Service Analytics Big Data)

Elaboration de la Roadmap Big Data 2016/2017

Définition, construction, installation, tests et maintien de la plateforme Big Data
Gestion de l’intégration de nouvelles données dans la plateforme

Mise en place de procédures et de normes dans l’exploitation de la plateforme

Accompagnement des Data Scientists dans l’utilisation des outils de data science

Conception et Développement du projet DATA-LAYER au sein de
SAB(Service Analytics Big Data)



MainFrame z/os , MapR, MapRDB, Hadoop, Sqoop, Pig, Hive, Spark, Hue, Data Science

Studio, Teradata, Oracle, Elasticsearch, Kibana, Logstash

TERADATA

Expert Big Data

Paris

September 2015 - Today

Expertise Big Data Transverse au sein du Centre de compétence hadoop d’ORANGE

Rédaction du document d’architecture technique des différents projets
Mise En Place du socle technique et Installation du cluster sur
une dizaine de machines

Mise en place de la sécurité dans le cluster et les projets Big Data (knox ,Ranger,Kerberos , SSL )

Développement des API big Data spécifique
Développement et réalisation des POC s

IOTECHWARE

Expert Big Data

January 2016 - Today

Mise en place d’une plateforme IOT/SCADA/ALARMING
- Rédaction de l’Architecture technique de la plateforme
- Implémentation et développement des modules fonctionnels
- Mise en place de la démarche devops de la plateforme

LA SACEM - Sacem

Consultant Big Data - Architecte

Paris

April 2015 - August 2015

Rédaction du document d’architecture technique
Mise En Place du socle technique et Installation du cluster sur une dizaine de machines
Conception et Développement des modules :
i. Import et stockage des données dans Elasticsearch et Cassandra (Gisement ) en mode batch et streaming

ii. Conception du module workflow et Intégration avec les systèmes externes
iii. Génération des statistiques et des aggrégations
iv. Data Analytics – Machine Learning Algorithme

Déploiements du cluster hadoop , Spark , YARN , ElasticSearch , Cassandra (AMbari)

Tests et validations des tâches effectuées (Test unitaire).

IPTWINS

Consultant Senior Big Dta

January 2015 - January 2015

Projet « Domain Search »
Refonte du système d’information d’IPTWINS pour la recherche des noms de domaines
Rédaction du document d’architecture technique
Etude, réalisation et le Développements du système d’information d’IPTWINS

Conception et Développement des modules :
v. Traitement automatique et stockage des données

vi. Recherche des noms de domaines
vii. Génération des statistiques

Déploiements du cluster hadoop (cloudera Manager)
Installation des outils Cloudera Search , Flume , Hbase

Tests et validations des tâches effectuées (Test unitaire).

TOMTOM

Conusltant Big Data

Belgique

December 2013 - April 2015

Projet « CPP Cycle Time »
Refonte du système d’information de TomTom pour la génération de Map
Participation à l’étude, réalisation et le Développements du framework : TOMTOM Big Data API

Conception et Développement des modules :
viii. Visualization Display (Junction Views / 2DCM / ACM / 3DLM)
ix. Voice Maps (Systèmes de génération de phonèmes pour alimenter la nouvelle plateforme)

x. Speed Profiles
xi. Map Artifacts

Déploiements des projets en utilisant Jenkins, puppet

Tests et validations des tâches effectuées (Test unitaire).

Test d’intégrations (Jbehave/jenkins)

SFR

Référent technique/Consultant Big Data

Paris, France

January 2012 - January 2013

Projet Selfcare unifié
la fusion de l’application MonCompte destinée aux clients fixe, ADSL et THD de SFR et des différentes applications destinées aux clients mobiles de SFR.
Développements Java/J2EE, modifications de la base de données via des scripts SQL, PL/SQL.
Exposition des services web aux systèmes applicatifs externes et internes.

Mise en place d’un cluster hadoop avec l’outil puppet.

Historisation des actes de gestion et statistiques utilisateurs (Hbase , Hadoop , Hive , Pig , Lucene/Solr …)

Analyse des anomalies, des évolutions relevées par le client via JIRA.

Corrections des anomalies, chiffrages et développements des évolutions.

Tests et validations des tâches effectuées (Test unitaire , Test d’intégration , Mock des websercice).

Déploiement des correctifs et des évolutions sur les différents serveurs.

Echanges clients concernant les précédents points.

Education

Certifications

charter modal image

Success is a team effort

Contribute to this success and the community's professionalism by signing the Freelancer Code of conduct

Sign the code