Expert en Ingenierie de Donnees (efrei)

EXPERT EN INGENIERIE DE DONNEES

APPRENTISSAGEMaster, Ingénieur, MBA2 an(s)

ECOLE 18.06 ALSACE — Molsheim (67)N/C

Connectez-vous pour sauvegarder cette formation dans vos favoris et accéder au chat IA.

Sauvegarder

Diplome — RNCP40875

Expert en ingénierie de données Bac+5 (Master/Inge)

Emplois accessibles

Data Engineer - Data Analyst - Data Scientist - Big Data architect - Chief Data Officer (CDO) - Data Steward - Consultant Data et IA - Architecte Data sur le Cloud - Ingénieur Machine Learning - Data Manager - Chef de Projet Data

Competences attestees

Concevoir et développer une base de données relationnelle universellement accessible en réponse aux besoins d’un client/d’une gouvernance, en mobilisant les technologies et les langages de requêtes adaptés, en collaboration avec l’architecte de base de données, afin de fournir une solution fiable et adaptée à la mise à disposition de données structurées. Concevoir et développer une base de données non‐relationnelle universellement accessible permettant la mise à disposition des données semi-structurées et non structurées, en utilisant des technologies NoSQL les plus adaptées, en étroite collaboration avec l’architecte de base de données et les Data Scientists pour répondre aux besoins de traitement analytique et d’intelligence artificielle. Concevoir et construire un lac de données (Data Lake) universellement accessible tenant compte des contraintes et des règlements de sécurité et de protection des données en vigueur en choisissant les architectures, les indicateurs de performance et les solutions de stockage appropriées, en coordination avec la gouvernance des données, afin d’intégrer les données de sources multivariées et d’optimiser leur exploitation. Architecturer des infrastructures scalables et résilientes en utilisant des systèmes de haute disponibilité, en collaboration avec l'architecte de données et l’architecte d’infrastructures pour permettre une adaptation à la croissance de l'entreprise et une résilience face aux pannes dans le cadre du traitement de données massives. Créer une API (Application Programming Interface) en utilisant les technologies permettant de rendre accessibles les données et facilitant la communication entre divers services informatiques en respectant les normes et les standards en vigueur et en collaborant avec les équipes IT pour assurer l’interopérabilité des systèmes. Implémenter un système distribué en utilisant des technologies de streaming, en travaillant avec les équipes techniques et métiers, afin de traiter les données sur des périodes définies et de répondre aux besoins d'analyse rapide Transformer les données provenant de différentes sources en prenant en compte la variété de données et en mobilisant des outils d’intégration permettant l’analytique de données à grande échelle, en collaboration avec les parties prenantes, pour une meilleure intégration, formatage et stockage des données multidimensionnelles. Optimiser la performance des pipelines en utilisant les techniques d’intégration et de mise en scène adéquates afin de garantir la performance et la qualité des analyses en aval exploitables par les collaborateurs internes. Préparer les données en les transformant et en les nettoyant, en utilisant des outils appropriés, en collaboration avec les gestionnaires et les analystes de données, afin d’assurer une qualité optimale et universellement accessible de ces dernières pour les différents besoins métiers dont l’analyse et le reporting. Élaborer une communication infographique visuelle inclusive en construisant des tableaux de bord interactifs en collaboration avec les équipes métiers et les data analystes afin de communiquer les résultats d’analyses, d’assurer l’extraction de connaissances en temps réel et favoriser la prise de décision éclairée par la gouvernance. Mettre en place des processus d'analyse exploratoire de données en utilisant des techniques statistiques et des outils adaptés, en collaboration avec les équipes métiers, pour générer des insights exploitables pour les décisions stratégiques. Définir une stratégie d'intégration de l'IA en identifiant les cas d'usage pertinents et en évaluant leur impact sur les processus métiers, en concertation avec les responsables IA et les responsables métiers, afin d’aligner les objectifs de l’IA aux exigences de l’écosystème, aux parties prenantes ainsi qu’aux objectifs de la gouvernance. Développer des modèles prédictifs dont du “machine Learning” pour identifier de nouveaux comportements et usages en collaboration avec les équipes métiers et les Ops, afin de fournir des insights exploitables pour la prise de décision par la gouvernance. Évaluer la performance des modèles de prédiction développés en analysant leurs résultats à l’aide de métriques adaptées et de leur degré d’écoresponsabilité, en les comparant avec d’autres modèles et en prenant en compte les besoins et attentes des parties prenantes, pour garantir l’efficacité et la pertinence du modèle retenu. Identifier les cas d’usage possibles de l’IA générative en évaluant leur pertinence en faveur des processus métiers et en choisissant les modèles appropriés en fonction des objectifs définis par la gouvernance, en collaboration avec le responsable IA et les équipes métiers, pour maximiser le pilotage par la valeur ajoutée des données. Développer des solutions basées sur des modèles d’IA générative en utilisant les modèles de base “foundation models” et les modèles de langage adaptés, en concertation avec les équipes IT et autres parties prenantes, afin de créer des solutions innovantes, facilement utilisables et adaptées au contexte de l’organisation Évaluer la qualité des résultats générés par les modèles d’IA générative en mettant en place des métriques d’évaluation adaptées aux cas d’usage et en ajustant les paramètres du modèle pour améliorer les performances des applications et solutions proposées. Mettre en œuvre des solutions de stockage de données dans le cloud en utilisant des stratégies adaptées en prenant compte les veilles technologiques et légales ainsi que l’impact environnemental de la solution, en coordination avec l’architecte cloud et les équipes IT pour permettre une exploitation optimale des données tout en choisissant des solutions adaptées aux besoins de stockage et d’archivage. Concevoir et développer des pipelines de traitement de données dans le cloud en chargeant, transformant et mettant les données à disposition des utilisateurs, en coordination avec les analystes de données, pour garantir l’efficience d’exploitation des données . Mettre en place une politique de sécurité des données dans le cloud en développant des stratégies de chiffrement et de gestion des accès, en collaboration avec les équipes de sécurité informatique, pour assurer la conformité avec les règlementations en vigueur, les normes de Qualité et de sécurité de l’organisation ainsi que la protection des données sensibles. Optimiser les solutions de stockage et de traitement dans le cloud en définissant des KPI de performance, de sécurité et de conformité en coordination avec l’architecte et l’ingénieur cloud, pour garantir la disponibilité des services, leur amélioration continue et optimiser les coûts d’infrastructure. Piloter une stratégie d'intégration continue des pipelines de données en s’appuyant sur une veille technologique et d’innovation pour identifier et adopter les meilleures solutions, en mobilisant des technologies de containerisation et d’ordonnancement, en collaboration avec les équipes DevOps, afin de garantir l'automatisation et l'efficience des processus de traitement des données. Développer et automatiser des pipelines d’intégration continue et de développement continu (CI/CD) permettant la livraison rapide, fiable et conforme des applications, en intégrant des mécanismes de tests automatisés et en travaillant avec les ingénieurs DevOps, les équipes de développement et de qualité logicielle, afin de garantir la qualité des livrables, réduire les erreurs humaines et accélérer les mises en production. Automatiser le processus de traitement et de stockage de données en utilisant des outils d’automatisation de flux de données, en concertation avec la gouvernance, les ingénieurs DevOps et les autres équipes métiers afin d'améliorer la qualité, la sécurité, la fiabilité et la conformité des données. Assurer l'efficacité des processus CI/CD dans un contexte MLOps en supervisant, évaluant et déployant automatiquement les modèles actualisés, en gérant leurs versions avec des outils adaptés innovants et/ou mis à jour en collaboration avec les Data Scientists, afin d'optimiser le cycle de vie des modèles d’apprentissage machine. Administrer les ressources cloud et on-premise de manière optimale en surveillant et ajustant l’utilisation des infrastructures à l’aide d’outils de monitoring en collaboration avec l’ingénieur et l’administrateur cloud, afin d’assurer la disponibilité, la sécurité, la conformité et la résilience des systèmes. Automatiser les processus de gestion d'infrastructure en utilisant les outils d’”infrastructure as code” (IaC) en coordination avec les équipes DevOps, pour optimiser et rendre efficients la gestion et le déploiement des infrastructures. Définir une gouvernance de données en mettant en place les politiques et les standards, en collaboration avec les équipes de gouvernance pour établir les rôles, responsabilités à partir du T.O.M (Target Operating Model) et propriété des données afin d’aligner la gouvernance de données avec les objectifs stratégiques. Mettre en place les bonnes pratiques de gestion et de sécurisation de données en appliquant les réglementations en vigueur pour la protection de données, en collaboration avec le gestionnaire de données, afin de garantir la transparence et le respect de la vie privée de toutes les parties prenantes. Superviser le cycle de vie des données dans les projets data-driven en établissant des processus de gestion (création, stockage, utilisation, archivage, suppression) en collaboration avec les équipes IT et de gouvernance des données, afin de garantir la conformité aux réglementations et d’optimiser l’utilisation des ressources tout au long du cycle de vie des données. Assurer et diffuser une veille réglementaire, légale et normative au niveau national, européen et international en matière de gestion des données et d’intelligence artificielle, afin de garantir auprès de l’ensemble des collaborateurs la conformité des pratiques et des solutions avec les lois, normes ISO et standards en vigueur. Auditer la qualité des données en utilisant des outils de monitoring et en interaction avec les équipes de gouvernance et le gestionnaire de données, afin de garantir l'adéquation des données aux besoins stratégiques ainsi que les objectifs définis au préalable. Mettre en place une stratégie d’amélioration continue en prenant en considération les résultats de l’audit, les exigences de l’ensemble des parties prenantes, les meilleurs pratiques et labels afin de garantir le maintien de la qualité optimale des données et ancrer la culture de la donnée dans l’ensemble des processus de l’organisation. Élaborer une stratégie de protection et de sécurisation des données en mettant en place des politiques d’accès aux données, et en développant une stratégie de chiffrement, de gestion des identités et des accès ainsi que de la sécurisation du stockage dans le respect des règlementations et bonnes pratiques ainsi que la conception universelle en vigueur en collaboration avec les équipes de sécurité pour garantir la protection de données. Mettre en place des stratégies de sécurité pour les infrastructures en définissant des protocoles de protection contre les cybermenaces et de résilience en cas d’attaque, en utilisant des outils de sécurité et un protocole de gestion de crise, en collaboration avec les équipes de sécurité informatique afin d’assurer la protection des infrastructures et la continuité des services. Définir le périmètre du projet Data avec la gouvernance en dimensionnant l’ensemble des contraintes et risques internes et externes du projet, les délais, les KPI, les ressources à mobiliser afin d’assurer une gestion optimale du projet data. Proposer la méthodologie projet la plus adaptée au Data et à la ressource humaine disponible en se basant sur les forces et faiblesses des méthodologies usuelles (Agile, Cycle en V, etc.) et sur l’élaboration d’une feuille de route méthodologique afin de garantir l’efficience du projet Data. Planifier les étapes clés de la réalisation du projet en organisant l’attribution des missions et responsabilités afférentes aux ressources humaines internes et externes nécessaires afin de garantir le respect et la tenue des différentes étapes du projet. Définir et suivre les budgets avec la gouvernance en prenant en compte le cahier des charges, les contraintes budgétaires, le ROI, la maitrise des risques à anticiper afin de garantir l’optimisation financière du projet Data. Coordonner le niveau d'évolution du projet Data auprès des services en mettant en valeur les points positifs d'avancée, en sensibilisant sur les retards, freins ou difficultés rencontrés pour s'assurer de la diffusion uniforme et universellement accessible de l'information au sein de l'entreprise et le maintien des délais, de la qualité des livrables ainsi que la motivation du collectif. Diagnostiquer les ressources en compétences existantes et manquantes en interne à partir de la stratégie RH actuelle, et de la politique gouvernance Data afin de sélectionner les profils internes à mobiliser, les recrutements à prévoir ainsi que les prestataires extérieurs à solliciter pour un besoin donné en veillant à bien respecter le principe d’inclusivité. Identifier les besoins en formation en interne et en externe en collaboration avec la direction des ressources humaines dans une démarche inclusive et égalitaire afin de garantir la montée en compétences et la disponibilité des compétences en interne pour la réalisation d’une transformation durable. Organiser les activités, les rôles et missions de chacun des membres de l'équipe projet en fonction de leurs compétences et de leurs profils en appliquant une ligne managériale inclusive tenant compte de la diversité, des situations de handicap et de la multiculturalité afin de favoriser la performance, l’éthique à l’égard de la Data, la réussite du projet ainsi que la Qualité de Vie au Travail (QVT). Evaluer les compétences ainsi que le niveau d'implication des équipes et des individus sur la base de critères préalablement définis avec la DRH dans le cadre de points d’étape, réunions, ou d’entretien individuel annuel afin de garantir la cohésion d’équipe et l’implication générale dans le déploiement du projet . Appliquer des méthodes managériales adaptées et inclusives auprès d'équipes inter et multidisciplinaires et multiculturelles, aussi bien techniques que fonctionnelles en adaptant ses actions et décisions aux parties prenantes pour s'assurer de l'adhésion du collectif dans le cadre d’un projet Data avec l’appui de la gouvernance de l’organisation.

Découvrez les métiers accessibles avec cette formation et leurs perspectives.

Explorer les métiers

Découvrez votre profil RIASEC

Passez le test d'orientation et trouvez les formations qui correspondent à votre personnalité.

Commencer le test

Source : ParcoursupDonnées ouvertes (Open Data)

Mise à jour le 25 mars 2026 — Source : Parcoursup, données ouvertes

Expert EN Ingenierie DE Donnees (efrei) : Admission,… — Projet Ariane