Xavier P.

Expert Node.js, Web Scraping, Automatisation

Moves to Paris, Paris, Nancy, Strasbourg

  • 48.8546
  • 2.3477
Propose a project The project will only begin when you accept Xavier's quote.
Propose a project The project will only begin when you accept Xavier's quote.

Location and geographical scope

Location
Paris, France
Can work in your office at
  • Paris and 50km around
  • Paris and 100km around
  • Nancy and 100km around
  • Strasbourg and 100km around

Preferences

Project length
  • ≤ 1 week
  • ≤ 1 month
  • Between 1-3 months
  • Between 3-6 months

Verifications

Influence

Github

Github : Xavatar Xavatar
  • 45 Followers
  • 6 Repos
  • 0 Gists

Stack Overflow

Stack Overflow : user170412 user170412
  • 27 Reputation
  • 4 Bronze
  • 0 Silver
  • 0 Gold

Languages

Categories

Skills (22)

Xavier in a few words

Gagnez du temps grâce à l'automatisation : restez focus sur les tâches à valeur ajoutée !

Développeur et ingénieur back-end, je propose audits et expertise en Automatisation et Web Scraping pour vos besoins en:
  • automatisation des tâches répétitives et chronophages
  • extraction données
  • création base de données
  • génération fichiers de leads
  • développement moteur de recherche full-text
  • Growth Hacking

Je fais aussi des formations / initiations :
  • Web Scraping
  • Node.js / Puppeteer
  • MongoDB
  • Apache SOLR
  • Formation Growth Hacking
  • PhantomBuster

Je mets en oeuvre des robots de web scraping sur mesure pour:
  • scraper des profils de réseaux sociaux
  • extraire les données de contacts de sites annuaires
  • collecter les prix de fiches produits de N sites (veille tarifaire)
  • récolter les données d'annonces immobilières / automobiles
  • scraper les avis/reviews de consommateurs
  • automatiser la recherche de données depuis formulaires complexes
  • enrichir des données existantes via API

Je conçois des architectures de scraping full stack distribuées avec entre autre:
  • Node.js
  • Headless Chrome + Puppeteer
  • MongoDB
  • RabbitMQ
  • SOLR / ElasticSearch
  • GraphQL
  • API
  • Electron
  • React
  • Vue.js

Les robots d'extraction de données sont personnalisés selon les structures des sites et des données. Toute action humaine est automatisable: étapes de login, infinite scroll, gestion pagination, clics sur boutons, filtres, ...

Pour comprendre vos besoins d'extraction de données, en vue d'un devis / audit, doivent être identifiés:

  • 1: les sources: sites à partir desquels sont extraites les données
  • 2: le chemin de navigation: cheminement depuis la page d'accueil pour arriver aux données (clics sur catégories / menu, gestion pagination, etc)
  • 3: la liste des données à extraire
  • 4: le format du livrable des données extraites: JSON, CSV
  • 5: fréquence des automatisations si scraping nécessitant des MAJ + extractions de données régulières

Portfolio

Portfolio only available to registered users

Experience

Coopaname/ Jennifer Palmer

Consulting & Auditing

Intervenant formation Lead generation avec PhantomBuster

Paris, France

January 2020 - January 2020

Formation personnalisée 1-to-1 à l'automatisation du processus de génération de leads à l'aide PhantomBuster + Dropcontact.

Bruno

Automobile

Backend Node JS Crawling / Scraping / Alerting

Nancy, France

November 2019 - November 2019

A partir d'un cahier des charges déjà bien étoffé et pré-établi, j'ai eu pour mission de:
  • proposer une architecture de web scraping / extraction de données automatisée, avec des choix de techno. pertinentes vis à vis des besoins exprimés
  • mettre en oeuvre la stack de web crawling / web scraping de données, où l'extraction automatisée des données est déclenchée suite à la réception d'alertes spécifiques via API
  • développer, tester, et déployer les scripts Node.js correspondants sur les instances de serveurs AWS dédiés

L'Oréal Produits de Luxe France - L'Oréal Groupe

Automatisation veille disponibilité stocks produits, et envoi fichier récapitulatif quotidien

Paris, France

October 2019 - November 2019

Dans le but de pouvoir détecter les indisponibilités de stocks de certains produits de luxe depuis leurs fiches produits, j'ai mis en oeuvre l'automatisation quotidienne de l'extraction des informations telles que: Code EAN, prix, dispo stock, marque, depuis un site e-commerce spécifique.

Le résultat concret étant un fichier Excel avec les EANs et dispo. stocks de chaque produit, envoyé chaque jour au responsable des commandes de ces produits.
  • Scraping
  • Collecte de données
  • Web Scraping
  • Puppeteer
  • Node.js

Versailles Voyage

Enrichissement de données OpenStreetMap avec API Nominatim

Paris, France

October 2019 - October 2019

15 Malt project(s)

    (12 ratings)

    16 external recommendations

    Education

    Certifications

    Freelancer groups

    ScrapingExperts

    2 members

      Groups only available to registered users

      charter modal image

      Success is a team effort

      Contribute to this success and the community's professionalism by signing the Freelancer Code of conduct

      Sign the code