euRHasi recrute pour son client un Data Engineer en CDI Lyon.
Descriptif de lentreprise
Notre client est une plateforme mondiale d di e lachat et la vente de pi ces automobiles exclusivement au service des distributeurs et des quipementiers. Elle garantit un inventaire complet et aide viter les ruptures de stock gr ce un vaste r seau mondial de fournisseurs de pi ces de rechange.
L quipe (30 personnes) compos e la fois de profils exp riment s et juniors volue dans une ambiance s rieuse mais conviviale o collaboration et changes sont au c ur du quotidien.
Nos bureaux id alement situ s au centre de Lyon entre Bellecour et Perrache sont facilement accessibles en transports en commun.
Apr s avoir construit le socle technique de traitements des data nous sommes dans une forte phase de d veloppement sur tous les m tiers de l entreprise (sourcing commerce adv) ainsi que g ographiquement.
Notre roadmap produit est riche en nouveaux use cases data/IA et implique toujours plus d interaction avec les syst mes IT de nos fournisseurs/clients.
C est dans cette phase de d veloppement que nous cherchons renforcer notre quipe data avec deux profils de Data engineer ayant une expertise SQL/Python.
Description du poste :
Notre stack est centr e aujourd hui sur Snowflake (SQL) et va voluer prochainement pour int grer une nouveau data store fast analytics ( galement SQL).
La data engineer implique donc de nombreux d veloppements SQL coupl s quelques d veloppements python d ingestion/extraction de nos data.
Les missions seront les suivantes et pourront voluer avec le temps selon notre roadmap produit et technique :
Missions centr es sur SQL (70%)**
La plupart des missions concernent la structuration l volution le contr le et le maintien en conditions op rationnelles des pipelines dans nos data stores SQL (Snowflake en particulier) :
Concevoir impl menter et faire voluer des mod les et traitements de donn es dans notre Snowflake et notre future data store fast analytics.
Mettre en place et maintenir des contr les qualit dans notre outil de data observability Openmetadata.
R aliser des extractions de donn es sur des besoins sp cifiques m tiers.
Documenter les cr ations ou l volution des mod les et process de traitements de donn es.
Apporter un support aux d veloppeurs de notre app sur le requ tage SQL de nos bases de donn es
Missions hors SQL (30%)
Ces missions consisteront intervenir sur l cosyst me des outils connect s nos data stores actuels et venir notamment :
BI : Mettre en place des POC de dashboards BI.
ETL : Concevoir et impl menter des data pipelines.
M tier : Apporter un support aux utilisateurs m tier pour qualifier les probl mes data.
Notre stack data est compos e de :
Data stores : Snowflake PostgreSQL Elasticsearch (solution fast analytics en cours de selection)
ETL : Dagster (orchestrateur ETL) Airbyte
Outils interne : OpenMetadata (data observability) BI (Apache Superset) Admin (Streamlit)
Devops : VSCode Github FluxCD Dbt Sqitch Kubernetes
Infra : AWS Scaleway
Ce que nous offrons :
Nous rejoindre c est :
Contribuer activement la croissance dune startup innovante.
Int grer une quipe motiv e et collaborative.
Vivre une exp rience professionnelle stimulante et enrichissante.
Si tu souhaites participer une aventure ambitieuse au sein dune entreprise en pleine expansion nous serions ravis de t accueillir dans notre quipe
Bonne maitrise du langage SQL. Connaissance python. Exp rience avec des bases de donn es relationnelles. Capable de lire/r diger de l anglais technique. Maitrise des outils de d veloppement (Linux, Git, VSCode) Plus que des comp** tences techniques expertes, nous recherchons une personne :** A l aise et capable de monter en comp tences dans un environnement peu structur et peu document (startup, nous nous structurons petit petit avec notre croissance) Capable de chercher l information, l analyser et l appliquer concr tement avec rigueur en autonomie. D avoir un esprit critique sur les analyses/r sultats obtenus (incoh rences, biais, qualit ). De s int resser et monter en comp tences sur les probl matiques m tiers.