Devenir data scientist chez Fifty-Five
Simon Alzra, ancien apprenant du batch 1, revient sur son expérience au sein du bootcamp DataBird et raconte comment il est devenu data scientist chez Fifty Five.
Découvrez le parcours inspirant d'un ancien étudiant devenu data scientist chez fifty-five !
Originaire d'une formation en droit-économie à l'université Paris Descartes, cet alumni a rapidement découvert sa passion pour la finance et les statistiques.
Après avoir travaillé dans le secteur financier, son intérêt pour l'analyse des données l'a conduit à suivre une formation intensive en data chez Databird et à pu se reconvertir en Data Scientist !
Armé de nouvelles compétences en SQL, Python, et Machine Learning, il a trouvé sa voie chez fifty-five, une agence de consulting en data spécialisée dans le webmarketing.
Plongez dans son parcours captivant, de ses débuts universitaires à son rôle actuel de data scientist, et découvrez comment il utilise ses compétences pour résoudre des problèmes complexes dans le monde du marketing en ligne.
Présente nous ton parcours ? Tes expériences ? Pourquoi te former en data ?
Je viens de la fac à l’origine puisque j’ai démarré mes études supérieures par une double licence droit-économie à l’université Paris Descartes. Plus attiré par la macro-économie, la finance, les stats etc.. que par le droit administratif, j’ai décidé de poursuivre dans cette voie en intégrant Audencia via un concours Passerelle. Suite au cycle commun grande école, j’ai suivi le master de finance de marché et c’est dans ce secteur que j’ai décidé de me spécialiser puisque j’ai effectué l’essentiel de mes stages en salle de marché.
Après une première expérience en tant que trader assistant à la Société Générale, j’ai poursuivi pas un deuxième stage chez Natixis en dans le domaine des produits structurés, expérience qui m’a permis de me mettre à la programmation (en VBA puisque c’est l’outil le plus utilisé encore à ce jour dans pas mal de banques). J’ai effectué un dernier stage à Montréal, toujours en finance en tant qu’assistant d’un gestionnaire de portefeuille.
Ma dernière expérience en finance s’est déroulée en tant que sales analyst chez Lyxor, à l’occasion de laquelle j’ai pu continuer à programmer un peu, même si une partie de mes tâches restait d’ordre commercial. Cependant, je me sentais de moins en moins attiré par la finance et l’environnement particulier de la salle de marché. Je me suis rendu compte petit à petit que les tâches qui éveillaient le plus mon intérêt étaient les plus analytiques, ou celles impliquant de la programmation. J’ai donc décidé de ne pas poursuivre chez Lyxor et de prendre du temps pour me former et prendre le virage de la data !
J’ai donc d’abord passé quelques mois à me former de mon côté, en suivant des MOOC de Python, Machine Learning etc.. Mais j’avais l’impression qu’il me manquait un fil conducteur. J’ai découvert Databird via un webinar suggéré par Pôle emploi, et deux semaines plus tard je posais mon sac dans les locaux de databird pour deux mois de formation intensive !
La formation m’a tout de suite parlé par sa structure très claire et cohérente, qui finalement suit le chemin de la data (pour résumer très rapidement : On explore la donnée en SQL, on la transforme en Python, on l’exploite en dashboard, avec des items axés Machine Learning et stats pour appréhender toute la complexité du travail de la data). Chaque semaine du bootcamp a été très riche en enseignement, mais je retiens particulièrement la semaine machine learning qui a été super instructive et vraiment claire (un exploit considérant le fait qu’on a vu et mis en application l’essentiel des modèles de base du ML en seulement 5 jours !).
Comment s'est déroulé le projet final à la fin du bootcamp DataBird ?
Pour notre projet final, on a eu la chance de travailler à 4 sur les données d’une start up dans le médical (Ascaly). Il y avait déjà pas mal de donnée, mais qui n’avaient jamais vraiment été exploités par manque de temps. En deux mots, l’entreprise commercialise une plateforme à destination des cliniques et hôpitaux permettant de réserver des prothèses et du matériel de bloc opératoire plus facilement.
La difficulté principale a été de comprendre la structure de la donnée (32 tables quand même !), d’arriver à la réconcilier puis la cleaner pour l’exploiter au mieux. Cette problématique presque « data ingénieur » a été hyper enrichissante, même si on a un peu transpiré avant d’en venir à bout !
Pierre, le CEO, a été très satisfait du travail effectué durant les deux semaines qu’ont duré le projet final. L’objectif principal était de ressortir les particularités régionales en terme de commandes pour lui permettre d’optimiser son discours et sa présence aux différents congrès médicaux lors desquels il présentait la plateforme, et le pari a été tenu avec le dashboard final. On a également pu lui présenter une segmentation des cliniques et hôpitaux clients via un clustering qui lui a permis de confirmer son intuition sur le sujet.
Comment as tu abordé ta recherche de travail à la suite de la formation ?
Suite au bootcamp, j’ai commencé à chercher un CDI sur Paris. Je me suis fixé comme objectif de commencer sur un poste plutôt technique (la data science et la préparation de données m’attiraient effectivement plus que l’aspect purement business analyse), et j’ai donc enchaîné les entretiens.
Concrètement, les process étaient tous assez similaires avec des discussions informelles avec les opérationnels, suivis de test techniques en SQL et/ou Python.
J’ai en parallèle des entretiens continué à exercer mes compétences en data en faisant du freelance pour le compte de quelques startups, ainsi qu’en menant quelques projets personnels avec des données publiques.
Cette approche rend le bootcamp très accessible et pertinent pour un grand nombre de profils.
La formation a un fort focus « data au service du business » mais sans pour autant négliger la technique, préférant se concentrer sur quelques outils clés et les exploiter à fonds. Cette approche rend le bootcamp très accessible et pertinent pour un grand nombre de profils, qu’il s’agisse de personnes désireuses d’acquérir quelques compétences techniques pour leur use case business, ou des profils cherchant des postes plus axés techniques comme c’était mon cas.
Ce sont deux mois très intenses mais la qualité des cours et des intervenants, l’ouverture d’horizon via les talks réguliers et l’implication des organisateurs en font une expérience hyper enrichissante.
Comment se passe ton travail en tant que data scientist chez fifty five ?
Je suis maintenant data scientist chez fifty-five depuis mars 2021. Il s’agit d’une agence de consulting en data spécialisée dans le webmarketing (mais pas exclusivement), qui collabore avec de grands groupes comme Renault ou Richemont.
On utilise donc les données web (fréquentation du site web, consultation des pubs, données CRM etc…) pour les analyses, le suivi par dashboarding (en construisant des pipelines pour réconcilier la donnée issue de différentes sources) et l’activation des données pour retargeting grâce à du machine learning entre autres.
Les équipes purement tech sont réparties entre data engineer et data scientist, mon équipe donc. Celle-ci est constituée de deux équipes, une de data scientist spécialisée dans la recherche et le développement de modèles, l’autre dans la préparation de données et le passage en production des modèles (c’est à ce deuxième pôle que j’appartiens).
On travaille majoritairement en python et SQL pour créer nos pipelines de données, et avec les outils des cloud providers (essentiellement GCP, Azure et AWS) pour le stockage et le passage en production.
Il serait difficile de décrire une journée type puisqu'en tant qu’équipe transverse on fonctionne par projet, mais je dirais que mes tâches essentielles sont le développement et l’entretien des pipelines, le déploiement de modèles de ML, la R&D afin de proposer de nouvelles offres, l’assistance technique aux consultants et l’exploration de nouveaux outils dans un but de veille technologique.
La montée en compétence à été rapide au début, même si compliqué puisque les environnements cloud m’étaient inconnus. Ma marge de progression technique (cloud/database/code) et théorique (modèles de ML) est encore grande et je sens que je progresse à chaque nouvelle mission, c’est un environnement hyper stimulant.
Peux-tu nous présenter un exemple concret de mission au sein de ton entreprise ?
Pour évoquer un projet récent, il peut être intéressant de parler d’une de nos offres « IA ».
Le but est d’attribuer des scores aux utilisateurs d’un site web pour améliorer le taux de conversion. Pour cela on se sert des données web pour évaluer les actions faites par les utilisateurs sur le site, que l’on transforme en paramètre pour un modèle de prédiction/scoring. La prédiction se fait ensuite journalièrement et est réimporté sur le site pour être exploité.
Suite à un changement de schéma dans la collecte de ces données il a fallu repenser une bonne partie de la pipeline, du cleaning à l’automatisation en passant par la prédiction, problématique sur laquelle j’ai pu me pencher avec mes collègues. Ce use case implique du développement en SQL, Python ainsi que l’exploitation d’outils cloud pour l’automatisation.