Architecte data Snowflake
il y a 2 semaines
Le groupe souhaite initier une démarche de standardisation dans l'intégration des données sur la plateforme en bénéficiant des capacités natives du cloud tant sur l'ingestion, la modélisation et la restaurions des données présentes sur la data platform. Le Data Architect interviendra pour réconcilier les enjeux techniques (feuille de route move to cloud) et enjeux gouvernance (documentation, lineage, collibra, framework d'ingestion/restitution, mise en place de monitoring de la plateforme, définition des audit et design authority de la plateforme). Et construire une feuille de route pour renforcer durablement la qualité de service.Vos missions1. Objet de la consultation Le présent cahier de consultation a pour objet de définir les modalités de sélection d'un prestataire en charge de la réalisation d'une mission en régie d'un data Architect. Son intervention conduira à la réalisation de différents livrables cités plus bas. Ce rôle nécessite une forte capacité à animer les échanges, à traduire les enjeux techniques en impacts métiers, et à fédérer les parties prenantes autour d'une culture de la qualité de service et de l'amélioration continue pour revenir à un standard en termes de plateforme data (Cible : Snowflake S 2. Expertise technique attendue : Afin de mener à bien cette mission, le groupe souhaite préciser le niveau d'expertise nécessaire dans les domaines suivants :- Compétences techniques Générales• Systèmes, Base de Données et architectures techniques• CLOUD, Stockagen, Sauvegarde, Virtualisation, Systèmes, Réseau• SQL Serveur• Systèmes d'exploitation Windows et Linux.• BPN Stonesoft• LAN/WAN/DC Cisco• Autres : AWS, SSIS, Grafana, cURL- Compétences techniques spécifiques• Modélisation de données avancée : maîtrise des modèles conceptuels, logiques et physiques (ex. Snowflake, Data Vault, Star Schema).• Maîtrise des outils ELT & orchestration : SQL avancé, orchestration type JAMS, Airflow ou Dagster, utilisation de dbt serait un plus.• Expertise cloud & plateforme data : conception d'architectures cloud-native sur AWS,idéalement incluant Snowflake.• Gouvernance & catalogage : compétences dans l'intégration de solutions comme Collibra, dbt docs pour le lineage et la documentation.• Expériences de l'environnement industriel, multi ERP : mise en œuvre de pipelines standards avec CDC (SAP Landscape Transformation serait un plus).• Forte appétence à la data observabilité- Compétences comportementales• Leadership technique & Design Authority : capacité à valider les choix d'architecture et à fédérer autour des standards.• Pédagogie & vulgarisation : aptitude à expliquer les concepts techniques aux métiers et à former les équipes.• Rigueur & structuration : production de livrables clairs, auditables et alignés avec lesstandards de gouvernance.• Travail en transverse : collaboration fluide avec les équipes IT, métiers, gouvernance et architecture SI.• Anglais écrit et oral.Vos compétencesPrestation attendue : La mission consistera à travailler sur :• Frameworks d'ingestion et restitution :o Définir les standards pour ingestion (batch, streaming, CDC) et restitution (API, BI,data services). Vision AS IS > TO BE• Framework « Observabilité & qualité des données » :o Définir métriques et roadmap pour monitorer la qualité des données critiques, enlien avec une initiative déjà lancée avec SODA.• Monitoring des flux & santé de la plateforme :o Contribuer à la mise en place des indicateurs et outils pour surveiller la performanceet la disponibilité des pipelines, service et ressources de la plateforme. (en lien avecle plan de robustification déjà lancé et les travaux menés en parallèle sur la partieFinOps)• Plan de migration SSIS + SQL Server → Snowflake :o Définir la méthodologie (phases, outils, patterns).o Identifier les risques et dépendances.• Stratégie d'Access Management : (priorité 2)o Définir les rôles, politiques RBAC/ABAC.o Garantir la conformité avec les standards de sécurité et gouvernance.• Tous éléments de documentation jugés nécessaires pour sécuriser la gestion quotidienne et évolutive de la plateforme : des travaux de retro-documentations pourraient être réalisés afin d'illustrer les écarts VS état de l'art. Ces activités mèneront à la production des livrables ci-dessous :• Documentation des frameworks ingestion & restitution (As is > To be).• Plan d'observabilité & qualité des données (métriques, outils, roadmap).• [CONTRIBUE]Tableau de bord pour monitoring des flux et santé plateforme.• Plan de migration (méthodologie, roadmap, estimation effort).• Stratégie d'Access Management (modèle de rôles, règles d'accès).• Formaliser la feuille de route opérationnelle 2026+ avec le data architect déjà en place pour limiter les écarts avec l'état de l'art. 4. Livrables : Les livrables sont détaillés dans la partie : Prestation attendue Un suivi de l'activité à intervalles réguliers et sous une forme qu'il explicitera. Il donnera un exemple de document correspondant à sa démarche. Cela devra être un rapport hebdomadaire d'activité. Ce rapport devra être commenté en présence du représentant. Des rapports soit à l'initiative du Prestataire, soit sur demande du groupe. Ces rapports seront demandés par exemple (sans être exhaustif) dans le cas de diagnostics de pannes difficiles à établir ou mettant en jeu une organisation complexe ou suite à une demande d'audit d'une infrastructure technique.
-
Architecte data Snowflake
il y a 2 semaines
Toulouse, Occitanie, France Consultaas Temps pleinLe groupe souhaite initier une démarche de standardisation dans l'intégration des données sur la plateforme en bénéficiant des capacités natives du cloud tant sur l'ingestion, la modélisation et la restaurions des données présentes sur la data platform.Le Data Architect interviendra pour réconcilier les enjeux techniques (feuille de route move to...
-
Data Architect
il y a 2 semaines
Toulouse, Occitanie, France ODHCOM - FREELANCEREPUBLIK Temps pleinModalités Démarrage : ASAP Durée initiale : 2 mois (phase d?audit et recommandations) Possibilité forte de prolongation sur une phase de mise en ?uvre long terme Rythme : temps plein avec 1 à 2 jours de TT Nous recherchons en urgence un Data Architect confirmé / senior pour intervenir auprès d?un acteur reconnu du secteur aéronautique. La...
-
Data Engineer expérimenté.e
il y a 6 jours
Toulouse, Occitanie, France Sfeir Temps pleinQui sommes-nous ? SFEIR, c'est une communauté de 900 techs passionné·e·s en France, Belgique et Luxembourg. Notre mission : aider nos clients à imaginer, concevoir et déployer des solutions modernes, web & mobile, cloud & data, IA, API & microservices. Et Toulouse dans tout ça ? Crée et animée par Nicolas Misiak en 2025, l'agence toulousaine...
-
Scientifique des données
il y a 2 semaines
Toulouse, Occitanie, France MP DATA Temps pleinDescriptif du posteDans un contexte de croissance de nos activités, nous recherchons un(e) Data Engineer pour rejoindre notre équipe toulousaine.Votre rôle sera notamment de :Concevoir et développer des solutions Data pour la collecte, l'organisation, le stockage et la modélisation des donnéesAssurer l'accès fiable, efficace et sécurisé aux...
-
Data Engineer
il y a 7 jours
Toulouse, Occitanie, France Ippon Technologies Temps pleinIppon est un cabinet de conseil qui accélère les projets innovants de ses clients de la page blanche au Cloud. Nos équipes dans le monde accompagnent les organisations dans la transformation d'idées innovantes en solutions logicielles de haute qualité avec un focus particulier sur le Time To Market. Nous sommes 500 collaborateurs, partenaires AWS avec...
-
Architecte GCP
il y a 5 jours
Toulouse, Occitanie, France HN Services Temps pleinHN Services – L'ESN française qui change les codes depuis 1983HN Services est une ESN indépendante et familiale, fondée en 1983. Avec un chiffre d'affaires de 160 millions d'euros et 2000 collaborateurs, elle accompagne plus de 130 clients notamment dans les secteurs de l'industrie, de la banque, de l'assurance, de la mutuelle et du retail.Présente...
-
Architecte Cloud expérimenté.e
il y a 7 jours
Toulouse, Occitanie, France Sfeir Temps pleinQui sommes-nous ? SFEIR, c'est une communauté de 900 techs passionné·e·s en France, Belgique et Luxembourg. Notre mission : aider nos clients à imaginer, concevoir et déployer des solutions modernes, web & mobile, cloud & data, IA, API & microservices. Et Toulouse dans tout ça ? Crée et animée par Nicolas Misiak en 2025, l'agence toulousaine...
-
Stage - Data Engineer F/H
il y a 2 semaines
Toulouse, Occitanie, France Viseo Temps pleinRejoins VISEO et découvre un monde de possibilités où l'Humain, le Collectif et le Challenge sont au cœur de tout ce que nous faisons. Qui es-tu ? Tu es étudiant en dernière année d'école d'ingénieurTu as une première expérience de stage dans le domaine de la Data. Tu as un intérêt prononcé pour les technologies Cloud et...
-
Data Engineer
il y a 1 semaine
Toulouse, Occitanie, France Link Consulting Temps pleinNotre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et...
-
Lead Data Engineer
il y a 5 jours
Toulouse, Occitanie, France Ippon Technologies Temps pleinQui sommes-nous ? Ippon, c'est l'énergie du collectif au service de la technologie Nous sommes un cabinet de conseil et d'expertise technique. Nos équipes ont pour leitmotive de transformer des idées innovantes en solutions logicielles de haute qualité avec un focus particulier sur la valeur apportée aux utilisateurs. Située en centre ville, notre...