Raphaël Le Nué

Lead Tech Big Data, Développeur Back-End

Moves to Noisiel, Noisy-le-Grand, Chessy, Paris

  • 48.8548
  • 2.6288
Propose a project The project will only begin when you accept Raphaël's quote.
Propose a project The project will only begin when you accept Raphaël's quote.

Location and geographical scope

Location
Noisiel, France
Can work in your office at
  • Noisiel and 10km around
  • Noisy-le-Grand and 10km around
  • Chessy and 10km around
  • Paris and 10km around

Preferences

Project length
Would prefer:
≥ 6 months
Would prefer avoiding:
  • ≤ 1 week
  • ≤ 1 month
  • Between 1-3 months
  • Between 3-6 months
Business sector
  • Biotechnology
  • Research
  • High Tech
  • Pharmaceuticals
  • Internet of Things
+9 autres
Company size
Would prefer:
  • 11 - 49 people
  • 50 - 249 people
  • 250 - 999 people
  • 1000 - 4999 people
  • ≥ 5000 people
Would prefer avoiding:
1 person

Verifications

Languages

Categories

Skills (18)

  • BigData
  • Beginner Intermediate Advanced
  • Beginner Intermediate Advanced
  • Databases
  • Beginner Intermediate Advanced
  • Architecture
  • Beginner Intermediate Advanced
  • Languages
  • Beginner Intermediate Advanced
  • Beginner Intermediate Advanced
  • Beginner Intermediate Advanced
  • Methodologies
  • TDD
    Beginner Intermediate Advanced

Raphaël in a few words

Je développe principalement en Java (7 ans) récemment pour des API d'exposition, et plus particulièrement en Scala (4 ans) pour Spark et application console. Il faut savoir être un JVM polyglot de nos jours.

Initialement en méthodologie en V, je travaille maintenant avec un mix Scrum + Kaban pour la transparence et le manifeste Agile comme philosophie.
Pour rendre une application pérenne je promeus une conception collaborative.

Je suis apprécié pour mon engagement sur les projets, mon assertivité dans les échanges et mon pragmatisme en conception et développement.

Après avoir occupé les postes de Consultant, Intégrateur, Dev Java, Dev Big Data, Lead Dev Big Data dans des secteurs variés tel que la Grande Distribution, l’Energie, la Finance et les Transports, je souhaite continuer à assister les entreprises en tant qu'accompagnateur de la transformation de leur Master Data Management.

C'est pour trouver des missions s'inscrivant uniquement dans cette démarche que j'ai créé l'entreprise Flulo, le principe est le même que celui suivi par Google, Amazon ou Facebook, se servir des frameworks Open Source pour avoir un Master Data Management le plus fiable et Low Cost possible.

L'évolution vers des architectures scalables horizontalement et des développements spécifiques basés sur des frameworks open source devrait être la cible de toute entreprise car c'est le meilleur moyen de réduire et maitriser les couts matériels et de maintenance.

De plus, si on couple cela à un dé-silotage des organisations et une approche holistique, on trouve des raccourcis extrêmement bénéfiques à la productivité. (comme la création de rapport temps réel)

Experience

FNAC Darty

Retail

Consultant Technico Fonctionnel

Paris, France

October 2014 - February 2016

• Bilan: Mise en place d'une organisation complète de Zéro pour la création d'un Référentiel Produit unique de la Marketplace de la Fnac qui lui a permis de résister à la concurrence d'Amazon.
• Clés du succès: L'industrialisation des déploiements avec Gradle a permis de transformer notre activité et permis la réussite du projet. On est passé de 90% d'intégration et 10% de développement à 90% de développement et 10% d'intégration.

Détail:
• Réponse à Request for Proposal
• Démonstration de faisabilité Proof of Technology
• Démonstration de faisabilité affinée Proof of Concept
• Diriger les entretiens d’embauche techniques
• Former sur MDM CE11 / Java EE / Intégration
• Participation aux ateliers de recueil des besoins
• Rédaction de la Spécification Fonctionnelle Générale
• Rédaction de Spécifications Techniques
• Création & Maintenance du modèle de données
• Conception intégrée à MDM CE 11
• Industrialisation des déploiements (moins de 10 min, avec Gradle + ANT+ Shell Script)
• Automatisation de déploiement des tables DB2 SQL externes en environnements non ISO
• Développement d’IHM spécifiques : liens bidirectionnels, métadonnées des assets, modèle variant initial (avec de l’AJAX)
• Estimation de la charge du développement de Règles de Gestion
• Répartition des tâches
• Contrôle de l’avancement avec fichier de suivi partagé et point d’équipe quotidien
• Rédaction de la procédure de déploiement

EDF Commerce - EDF

Energy & Utilities

Tech Lead Big Data

Paris, France

April 2018 - June 2019

Mission initiale d'alimentation et exposition de données de références:
• Auto-organisation autour d'un Kanban avec Daily Scrum
• Planning poker pour découpe en User Stories de 2 semaines
• Platforme Hortonworks: HDFS, Kafka, Spark, Hive, Hbase, Ambari, Yarn
• Adaptation: Initialisation avec Wip Limit à 1 pour enchaîner les Stories grâce à un focus de team
• Adaptation: Automatisations avec Gradle et Jenkins
• Adaptation: Création d'un installeur d'environnement de développement complet pour l'ensemble du pôle
• Adaptation: Démonstration avec projet en Angular JS pour partager avec les autres équipes
• Evolution: Rôle de support et accélérateur des équipes de production
• Adaptation: Test First avec Framework Cucumber et Behavior Driven Development
• Adaptation: Apprendre le Scala dans api d'alimentation Hbase avec Spark Streaming
• Adaptation: Création de Web Services d'exposition des données Hbase avec Jax-RS(Jersey2)
• Adaptation: Création de projet de test de performances et de montée en charge avec Gatling
• Adaptation: Api d' exposition rendue générique

• Bilan: Création du référentiel des consommations d’énergie et de leur facturation et d'api d'exposition nécessaire à la supervision marketing et aux applicatifs EDF sur vos smartphone.
• Clés du succès: L'organisation faite de petite itérations autour d'un tableau représentant les étapes nécessaire à la mise en production rapide permet une vision partagée. (Conception>Test>Développement>Déploiement)
Le code des traitements de flux et par lots, ainsi que celui des api d'exposition était le plus générique possible, cela a permis de modifier notre activité de 90% développement 10% intégration à 40% Montée en compétence sur les architectures Big Data 50% développement 10% intégration

Détail:
• Adaptation: Industrialisation des processus de développement dans chaque projets: Tests Cucumber avec rapport, Debug à chaud, bundle de livraison multi environnement ...
• Formation: Diffusion de bonnes pratiques via pair programming dans l'équipe et via des ateliers techniques avec le reste du pôle
• Adaptation: Reprise et amélioration du projet créateur d'api d'exposition génériques (Gradle+Spring Boot) des données du référentiel Hbase ( génération de code en contract first avec Swagger 2.0)
• Adaptation: Création d'un pur codebase ETL Spark+Scala (Hbase -> Elastic Search) dédié au index de recherches croisées et pagination des apis. Il créé des indexes en 3 à 10 min au lieu de 1 à 3h avec l'ancienne solution.
• Enrichissement et maintient d'un projet de récurrent avec Spark Streaming (Kafka -> Elastic Search)

Société Générale - Société Générale

Banking & Insurance

Expertise Architecture Big Data

Fontenay-sous-Bois, France

June 2019 - August 2019

• Bilan: Remplacement d'un traitement historique en python qui a couté 2 ans et a été refusé en production car la compilation à l’exécution représente un risque majeur de régression, le nouveau traitement a pris 2 semaines, compile sans risque de régression et permet des itérations rapides
• Clés du succès: L'approche holistique et la clé, cependant la tentative mise en place progressive (dite "at scale") de l'agilité par des rituels Scrum n'a pas permis le dé-silotage de l'organisation.

Détail:
• Formation: Assistance à la mise en place d'une nouvelle organisation plus Agile moins en silo avec d'un côté les service de régulation de fraude et de l'autre les services informatiques
• Adaptation: Rétro ingénierie sur code historique en Python, création de spécification fonctionnelles exploitable
• Développement: Développement d'un ETL avec multiples sources comme les journaux de connexions des employés pour la supervision de signaux d'alertes nécessaire à la détection de fraude
• Formation: Démonstration d'une nouvelle organisation autour de cet ETL avec la régulation qui explique une nouvelle règle, les tests sont écrit en français puis codé, puis le traitement est développé

OUI SNCF - SNCF

Transportation

Expertise Architecture Big Data et Master Data Management

Paris, France

September 2019 - December 2019

1 external recommendation

Education

Certifications