Adrienne Vermorel
Hello, moi c'est Adrienne 👋
Actuellement, je suis Analytics Engineer chez UnNest, une agence de data marketing, full remote. Mon travail consiste à transformer des données brutes pour les rendre plus accessibles, organisées et plus faciles à analyser.
Auparavant, je travaillais chez lePermisLibre en tant que responsable du tracking et Analytics Engineer. J'ai mis en place le suivi du site web et travaillé sur la modélisation de l'attribution afin de guider les efforts d'acquisition marketing.
Avant cela, j'étais web analyst chez Woptimo pour les clients de l'agence. J'ai également travaillé sur des projets d'outils internes pour l'agence.
Mais en réalité, mon parcours dans la data a commencé chez Business & Decision, où j'ai travaillé avec des clients de renom comme L'Oréal, EDF et Sanofi-Pasteur. J'étais impliquée dans des projets de digital analytics, dirigeant une équipe de web analystes et gérant des projets data à grande échelle.
Avant de travailler dans la data, j'étais consultante en Search Engine Advertising chez RESONEO où j'ai appris les ficelles du marketing digital et commencé à apprendre à coder pour automatiser les rapports et mieux suivre la performance de mes campagnes.
Dans l'ensemble, mon parcours est motivé par un double intérêt : le pouvoir narratif de la data et le monde en constante évolution des technologies web, et je tente de combiner les deux autant que possible dans mon travail quotidien.
Articles récents
-
Écosystème MCP : serveurs, clients et SDKs
Un guide pratique des serveurs, clients et SDKs MCP pour les data engineers. Quels serveurs de bases de données utiliser et quels clients privilégier.
-
MCP Apps : visualisations interactives dans Claude
Construisez des dashboards et graphiques interactifs qui s'affichent directement dans les conversations Claude. Un guide MCP Apps pour les équipes data.
-
Créer des serveurs MCP personnalisés pour la data engineering
Construire des serveurs MCP personnalisés avec Python ou TypeScript. Exemples pratiques pour les catalogues de données, le monitoring de pipelines et les outils de data quality avec le code complet.