🔔

Journée portes ouvertes : Webinar de présentat la formation en data analyse le 7 décembre

Je m'inscris à l'événement
croix
Journée portes ouvertes :

Webinar de présentation de la formation en data analyse le 7 décembre
Je m'inscris à l'événement

La data au service d’une start-up eCommerce éthique !

Projet apprenant

Découvre le projet de Lily et son équipe : Trouver une solution pour centraliser et améliorer le flux de traitement de données d’une start-up eCommerce éthique.

La data au service d’une start-up eCommerce éthique !

Après 6 semaines de bootcamp (batch 6) Data en présentiel à Paris, Lily et son équipe exclusivement féminine (ciao les préjugés sur les métiers de la data) se sont attaquées à leur projet et pas des moindres ! 2 semaines pour proposer une solution d’amélioration du système de traitement des données d’une start-up eCommerce responsable, green et implantée sur tout le territoire européen. Elle raconte son expérience au sein du bootcamp et son projet final : un projet conséquent ou une course contre la montre pour une expérience data réussie !

Table des matières

Est-ce que tu peux te présenter ? Pourquoi cette volonté de te former à la data analyse ?

Je m’appelle Lily et je suis diplômée de l’Ecole Estienne et de l’Université Paris 1 Panthéon-Sorbonne. Après plusieurs années en agence de communication digitale en tant que E-commerce et Digital Manager et actuellement Creative Production Manager dans le secteur du Luxe, j’ai souhaité ajouter une brique technique Data à mon profil.

Trop de données sont stockées et inexploitées par les entreprises et les organisations ; elles n’attendent que nous pour les traiter !

Sur quel projet as-tu travaillé ?

Dans le cadre du bootcamp Data Analyse 8 semaines en présentiel, les deux dernières semaines sont dédiées à la réalisation d’un projet final pro bono.

C’était une très bonne occasion d’obtenir une expérience data significative, tout en étant soutenue par des professionnels du secteur.

J’avais envie de proposer un projet data e-commerce qui balaye l’intégralité du programme proposé par DataBird, afin d’appliquer et de valoriser les nouvelles compétences acquises.

Pour cela, j'ai eu la chance de pouvoir accompagner une start-up eCommerce en pleine croissance, green, responsable et active sur tout le territoire européen. Elle propose une formule d'adhésion mensuelle ou annuelle à ses clients ; ces derniers peuvent devenir membres pour accéder aux produits d’un catalogue de plus de 4000 références à des prix très attractifs. Cette start-up cumule aujourd’hui plus de 100 000 clients.

Les collaborateurs de cette start-up sont déjà sensibilisés à l’analyse de données. Certains d’entre eux réalisaient déjà leurs propres analyses sur le logiciel Tableau Software, celui-ci connecté directement à leur site e-commerce Prestashop. Or, le volume de données stockées depuis des années étant très important (clients, commandes, produits…), ce travail d’analyse est devenu très fastidieux, limité et beaucoup trop lent (trop de calculs). Par ailleurs, ils collectaient de nombreuses sources de données inexploitées de solutions tierces (Google Analytics, Kaviyo, Zendesk…) qu’ils souhaitent aujourd’hui rapatrier au sein de leur organisation.

Nous avons donc accompagné cette start-up pour leur proposer une nouvelle solution en vue de centraliser et d’améliorer le flux de traitement de données.

Ils souhaitaient également que nous nous penchions sur une de leurs problématiques business : l’analyse des churners. Pourquoi les clients se désabonnent-ils et comment améliorer la rétention des abonnés ?

Est-ce que tu pourrais présenter ton équipe, background,... ?

Pour répondre à ce challenge data, nous avons formé une équipe de six talents aux profils hétéroclites mais complémentaires. Voici les cinq membres de mon équipe :

Nelly est fraîchement diplômée de l’Institut Agro de Rennes, une école d'ingénierie spécialisée en agroalimentaire. Après un master en Data Science pour l’Agronomie et l’Agroalimentaire, Nelly a voulu compléter son profil en se lançant dans la data analyse grâce à DataBird.

Liliya a travaillé pendant 6 ans dans le domaine du NLP (text mining, création de chatbots & des systèmes d’interaction pour des robots), avant d’intégrer DataBird. En tant que passionnée du nettoyage des données, le bootcamp lui a permis d’élargir ses horizons en découvrant les data technologies les plus utilisées sur le marché.

Victoria, diplômée de Sciences Po Aix en Affaires Internationales a exercé 5 ans en tant que cheffe de projet dans un cabinet de conseil à destination de clients CAC/SBF. Poussée par sa volonté de relever des challenges et convaincue de l’utilisation de la data comme levier de performance, elle a décidé de mettre les mains dans le cambouis et de se former à la data-analyse avec Databird pour ajouter une brique plus technique à son profil business.

Sarah est titulaire d’un doctorat en mécanique. Après 7 années passées dans l’acoustique automobile, elle a décidé de se lancer dans la data-analyse pour acquérir une connaissance complémentaire à sa thèse et apporter une valeur ajoutée orientée business à son parcours professionnel. Elle aimerait s’orienter vers la data-analyse full stack à court/moyen terme.

Viviane, diplômée d’un bachelor systèmes d’information informatique et d’une maitrise AES, mention administration et gestion des entreprises. Elle a travaillé dans les milieux de l’audit, de la comptabilité et de la finance avant de se lancer dans la Data analyse au sein du bootcamp. Elle souhaite mettre à profit ses compétences data dans la gestion de trésorerie.

Peux-tu nous expliquer le but et le déroulement du projet ?

Pour créer une nouvelle pipeline data et répondre à leur problématique du churn, nous avons identifié trois grands chantiers :

  1. Data Engineering
  • Mise en place d’une nouvelle infrastructure data
  • Import et synchronisation des données e-commerce
  • Connecter les données externes, via leurs API

Pour répondre à cette première mission, nous avons centralisé l’intégralité des données sur Google Cloud BigQuery, via l’ETL Fivetran, en réalisant l’import automatisé de plus de 200 Go de données. Celles-ci sont synchronisées quotidiennement afin d’avoir une base de données catalogues, commandes et clients toujours à jour.

  1. Data Science
  • Nettoyage, transformation et enrichissement des données

Une fois les données centralisées sur BigQuery, nous avons effectué une première exploration des données et data processing, en utilisant SQL + Python. Pour répondre à la problématique business (i.e. analyse du churn), nous avons réalisé un travail d’enrichissement par la création de nouvelles tables et nouveaux champs calculés. Enfin, pour que les données soient toujours à jour, nous avons mis en place un dispositif d’automatisation de l'exécution des scripts Python via Google App Engine.

Nous avons réussi à créer une pipeline data totalement synchronisée, connectée directement à Tableau Software.

  1. Data Analyse
  • Modélisation des données
  • Transformation et data visualisations sur Tableau Software
  • Recommandations business

En ayant créé et isolé les churners de leur base de données, il était simple d’en tirer des analyses sur le segment et sur leurs comportements, observer leurs évolutions dans le temps et selon leurs différents territoires d’intervention pour adapter leurs offres et leur marché.

Comment vous êtes-vous organisés ?

C’était globalement un projet ambitieux et complexe à réaliser dans un temps extrêmement court. Il a fallu être organisées et prendre des décisions rapidement pour atteindre les objectifs que nous nous étions fixés.

Tous les matins, nous organisions un daily meeting, pour permettre à chacun des membres de l’équipe de connaître ses objectifs du jour ainsi que les obstacles qu’ils pouvaient rencontrer. C’était le moyen le plus simple, efficace et rapide pour discerner ce qui a été fait et ce qui restait à faire.

Nous avions créé deux groupes de travail :

  • Une équipe technique : Nelly, Liliya et moi avons travaillé sur l’élaboration de la nouvelle pipeline data, l’import des données depuis Prestashop et les API, l’automatisation et la transformation des données.
  • Une équipe analyse et business : en parallèle de notre travail, Viviane, Victoria et Sarah se sont consacrées à l’analyse des centaines de tables Prestashop pour comprendre la structuration des données et les vérifier, pour enfin réussir à isoler les churners et les comprendre.

Quels outils avez-vous utilisés ?

  • Outils collaboratifs : Slack, Trello et Suite Google, pour communiquer au quotidien, planifier et échanger nos travaux
  • ETL : Fivetran, pour l’import des données via des connecteurs MySQL et API
  • Datawarehouse : Google BigQuery, un lieu unique pour centraliser, héberger et traiter l’intégralité des données de la start-up
  • Exploration des données : MySQL via DBeaver pour l’exploration des centaines de tables Prestashop, et Python via Jupyter Notebook pour l’analyse et le traitement des données
  • Data Processing : Google App Engine, pour planifier de manière récurrente les scripts Python et SQL créés dans le cadre de ce projet
  • Data visualisation : Tableau Software online, la plateforme collaborative en ligne de Tableau, pour permettre de partager en temps réel nos sources de données et nos visualisations

Quelles ont été les difficultés à surmonter lors du projet ?

Notre principale difficulté a été l’accès et l’import de l’intégralité des données sécurisées de notre client (API et eCommerce) dans un laps de temps extrêmement court. Or cette phase était inévitable pour la suite du projet; c’était une course contre la montre !

Puis une fois la mise à disposition des données, l’équipe a réalisé un travail de fourmis pour rechercher et isoler les bonnes tables et les bonnes colonnes parmi des millions de données… le tout sans documentation de référence.

Qu’est-ce que tu as aimé dans ce projet et qu’est-ce que tu en retires ?

Mon équipe et moi sommes fières d’avoir accompli un projet complet que nous n’aurions jamais pu réaliser sans la formation DataBird.

Nous avons proposé à notre client une solution viable clés en main, et nous leur avons donné la capacité de réaliser des analyses rapides, pertinentes et croisées.

Nous avons obtenu les félicitations et l'entière satisfaction de notre client qui a dores et déjà adopté l’intégralité de nos solutions.

Un conseil à donner pour ceux qui voudraient postuler à DataBird ?

DataBird, c’est 8 semaines de formation intensives qui nécessitent un investissement personnel important, mais l’enseignement est riche et les rencontres exceptionnelles !

équipe DataBird formation data analyse

Tu souhaites devenir data analyst

Notre formation intensive en présentiel ou à distance en data analyse est ouverte à tous types de profils. Tu es intéressé(e) pour rejoindre notre communauté ? Postule pour en savoir plus.

A lire également :