Data Engineer Senior (H/F)
Le Groupe ekino fort de 600 collaborateurs répartis dans le monde accompagne ses clients dans leur accélération numérique. Pour cela, nous créons des plateformes digitales sur-mesure à forte valeur business et technique auprès de nos différents clients (Canal +, Axa, Nexity, Renault, Euler Hermes…).
Dans un contexte de forte croissance française et à l’international, nous souhaitons intégrer un(e) Data Engineer Senior.
Votre rôle:
Au sein de l’équipe Data, le Data Ingénieur SENIOR aura pour mission de travailler sur des problématiques de collecte et de traitement des données.
· Encadrer des Data ingénieurs et les faire monter en compétence sur l’usage des technologies de l’écosystème Data.
· Respect de la culture Devops et développement de projets cloud ready.
· Participation à la définition d’architectures pour les projets.
· Contribution à l’ensemble du cycle de développement des projets : Conception, développement, tests associés et industrialisation.
· Travailler sur les aspects de performance (optimisation CPU/RAM, temps de traitement, montée en charge, etc.).
A propos de vous :
· Vous êtes à l’aise en Python 3 et avec Docker.
· Vous maîtrisez le design de base de données et le langage SQL.
· Vous maîtrisez la partie devops et avez pratiqué au moins un cloud (AWS, GCP, ou Azure).
· Vous avez une bonne connaissance des librairies de manipulation de données.
· Vous maîtrisez les problématiques associées aux pipelines de données et à l’orchestration.
· Vous écrivez du code propre, testé, industrialisé et à jour avec l’état de l’art.
Les + :
· Expérience dans la gestion de Data Warehouse et Data Lake.
· Connaissance d’outils de BI.
· Connaissance des problématiques ML Ops.
· Connaissance de frameworks web (Flask, Django, etc.).
En développement:
- Python 3
- Spark ou équivalent
- Flask ou autre framework permettant de déployer des APIs
- GIT
- CI/CD
- SGBD / SQL
- Docker / Kubernetes
Sur des outils de développement d’application cloud:
- Serverless
- Storage
- Managed Container Service
- Logging & diagnostics
En Data Ingénierie:
- Data Pipelines: ETL tools (Airflow, Glue, Cloud Data Fusion,..), Streaming
- Data Lake : Mise en place d’un Data Lake, (Coordinating ETL jobs, Data catalog, Access management, …),Versionnement des Data
- Connaissance d’au moins un outil de BI (Tableau, Power BI…)
- MLOps : Connaissance d’outils (Sagemaker, AutoML, etc.)
- La connaissance de Snowflake est un plus
Et pourquoi pas ekino ? :
Ekino c’est avant tout l’ambition d’être au plus proche de l’innovation (ouverture à un large horizon technologique).
Notre culture s’articule autour de l’excellence et du partage permettant à chacun d’être acteur de sa carrière ainsi que de l’évolution de la société (parcours d’intégration, suivi de carrière, formations …) .
La richesse naît des échanges et c’est une notion qui est bien ancrée chez nous ! (une journée de conférence interne par mois, accès à des conférences externes, événements hebdomadaires par équipe …).
Si vous vous reconnaissez dans cette offre, rencontrons-nous !