Après plusieurs années consacrées à la construction d'applications web riches, je me spécialise depuis 5 ans dans le développement d’applications data-centric à haute valeur ajoutée.
Mon expertise porte sur les différentes étapes du cycle de vie de la donnée, de son entrée dans le système à sa préparation, exposition et exploitation pour des usages variés tels la business intelligence, l'expérimentation data-science ou encore les traitements temps réel.
J’ai ainsi participé en tant que tech lead au développement d’une application d’ingestion de données en streaming, permettant aux opérateurs de traiter des informations de suivi marketing au fil de l’eau. Nous avons basé notre architecture sur Apache Kafka, dont la résilience nous a permis de bâtir un système distribué réactif et performant.
J’ai également supervisé comme Data Team Leader l’équipe en charge de l’exposition des données de consommation vidéo pour un grand groupe média français. Une architecture basée sur Spark et Delta Lake, monitorée via Superset, nous a assuré la maîtrise et la qualité des ingestions de données brutes.
L’orchestration des tâches via Apache Airflow nous a permis de bénéficier de l'élasticité du cloud Amazon et de lancer des clusters EMR à la demande afin de garantir la fraîcheur des données, besoin critique pour nos clients.
Garantir la robustesse, la justesse d'une application, mais aussi son évolutivité ne peut se faire sans de solides fondations de design logiciel et d'architecture, c'est pourquoi j'applique et aime à partager les bonnes pratiques de Software craftsmanship. Test Driven Design, loose coupling, Architecture hexagonale et Intégration Continue sont pour moi des notions essentielles que je mets quotidiennement en pratique, et fait partager aux équipes que j’accompagne.