Accès illimité 24h/24 à tous nos livres & vidéos ! Découvrez la Bibliothèque Numérique ENI. Cliquez ici.
  1. Livres et vidéos
  2. La data - Guide de survie dans le monde de la donnée

La data Guide de survie dans le monde de la donnée

  • En stock
  • Expédié en 24h00
  • Livraison à partir de 0,01 €
  • Version en ligne offerte pendant 1 an
  • 1 h d'accès gratuit à tous nos livres et vidéos pour chaque commande
  • Accessible immédiatement et pour une durée de 10 ans
  • Version HTML
  • Accès illimité 24h/24, 7J/7
  • Accès illimité 24h/24, 7J/7
  • Tous les livres en ligne, les vidéos et les cours enregistrés ENI
  • Plus de 10 nouveautés livres et vidéos chaque mois
  • Les nouveautés disponibles le jour de leur sortie
  • Accès 100% en ligne

Présentation

Véritable manuel pratique, ce livre s’adresse à toute personne amenée à travailler avec les données (chefs de projets, CDO, Architectes, Ingénieurs Data ou même Data Scientists) qui souhaite étendre ses connaissances autour de la gestion de données ou qui rencontre des besoins ponctuels sur des opérations à réaliser. L’objectif est de présenter tous les concepts et notions utiles dès lors que l’on est impliqué dans un projet intégrant des données. Chaque chapitre peut être lu indépendamment des autres et des exemples viennent étayer les propos de l’auteur.

Le lecteur commence avec une clarification indispensable des différents concepts qui gravitent autour de la donnée. Cette entrée en matière permet de démontrer que la donnée est une notion plus complexe qu’on ne le pense. Le livre aborde ensuite le stockage des données ce qui amène naturellement à la notion d’intégration de ces données et à ses impacts sur le Système d’Information.

La donnée étant mouvante, l’auteur expose ensuite les moyens à mettre en place pour une gouvernance de données efficace. Cela permet au lecteur de mieux comprendre comment définir un cadre qui sera contrôlé et maîtrisé et d’expliquer en quoi les entreprises qui mettent en œuvre le Data Fabric ou le Data Mesh sont à même de proposer des services de données pertinents. Le livre détaille ensuite les méthodes d’analyse et de visualisation de données qui permettent de déceler des problèmes de qualité de données nécessitant ensuite de les nettoyer, les transformer et les valoriser en information de confiance.

Le lecteur sera finalement invité à mettre un pied dans le monde de l’IA. Les principes et grandes notions autour du Machine Learning et du Deep Learning sont expliqués avec simplicité afin que le lecteur puisse mieux comprendre comment les algorithmes fonctionnent grâce aux données. Pour terminer, l’auteur explique comment les grandes architectures de données (Data warehouse, Data Lake, MDM, Data Hub et EDI) fonctionnent en détaillant leurs principes et leurs différences.


Quizinclus dans
la version en ligne !
  • Testez vos connaissances à l'issue de chaque chapitre
  • Validez vos acquis

Table des matières

  • Introduction
    • 1. Il était une fois la donnée
    • 2. Pourquoi ce livre ?
    • 3. À qui s’adresse ce livre ?
  • La donnée sous toutes ses facettes
    • 1. Introduction
    • 2. Qu’est-ce qu’une donnée ?
    • 3. Propriétés physiques
      • 3.1 Le type
        • 3.1.1 Bits et octets
        • 3.1.2 Les nombres entiers
        • 3.1.3 Les nombres décimaux
        • 3.1.4 Les textes
        • 3.1.5 Les dates
        • 3.1.6 Les images
        • 3.1.7 La vidéo
        • 3.1.8 Le son
      • 3.2 Le domaine
      • 3.3 La variabilité
        • 3.3.1 Variable quantitative
        • 3.3.2 Variable catégorielle
    • 4. Propriétés d’exposition
      • 4.1 Le format
        • 4.1.1 Date
        • 4.1.2 Les nombres
        • 4.1.3 Les formats monétaires
        • 4.1.4 Les expressions régulières
      • 4.2 La localisation et l’internationalisation
    • 5. Propriétés structurelles
      • 5.1 La granularité
      • 5.2 La structure
        • 5.2.1 Les données structurées
        • 5.2.2 Les données semi-structurées
        • 5.2.3 Les données non structurées
      • 5.3 Les mesures et la dispersion
        • 5.3.1 Éléments de mesure
        • 5.3.2 Les distributions
    • 6. Propriétés fonctionnelles
      • 6.1 Le contexte
      • 6.2 La sensibilité
        • 6.2.1 Les données personnelles
        • 6.2.2 Les autres données sensibles
        • 6.2.3 Mesure de la sensibilité
    • 7. Vocabulaire des données
  • La persistance
    • 1. Introduction
    • 2. Fichiers
      • 2.1 Le fichier CSV
      • 2.2 Le fichier XML
      • 2.3 Le fichier JSON
    • 3. Les bases de données
      • 3.1 Familles de bases de données
      • 3.2 Modélisation
        • 3.2.1 Démarche de modélisation
        • 3.2.2 Les types de modélisation
      • 3.3 L’intégrité référentielle (CIT)
      • 3.4 L’indexation des données
        • 3.4.1 Principe de fonctionnement
        • 3.4.2 Création d’index
        • 3.4.3 Les types d’index
    • 4. Les bases de données relationnelles (SGBD-R)
      • 4.1 Le langage SQL
      • 4.2 Le LMD / SQL
        • 4.2.1 La commande SELECT
        • 4.2.2 La clause UPDATE
        • 4.2.3 La clause INSERT
        • 4.2.4 La clause DELETE
        • 4.2.5 Opérations ensemblistes : les jointures
        • 4.2.6 Opérations ensemblistes : l’union
      • 4.3 Les transactions
        • 4.3.1 Caractéristiques d’une transaction
        • 4.3.2 Critères A.C.I.D. d’une transaction
    • 5. Les systèmes OLTP et OLAP
    • 6. Système distribué et théorème CAP
    • 7. Les bases NoSQL
    • 8. Le Big Data
      • 8.1 Les 3 V
      • 8.2 Hadoop
        • 8.2.1 HDFS
        • 8.2.2 MapReduce
        • 8.2.3 YARN
      • 8.3 La gestion des données avec Hadoop
        • 8.3.1 Hive
        • 8.3.2 HBase
        • 8.3.3 Sqoop
        • 8.3.4 Cassandra
        • 8.3.5 MongoDB
      • 8.4 Les outils de programmation
        • 8.4.1 Pig
        • 8.4.2 Spark
    • 9. Les tendances actuelles
      • 9.1 Bases de données dans le Cloud (Database as a Service : DBaaS)
      • 9.2 Le MDS (Modern Data Stack)
  • L’intégration de données
    • 1. Introduction
    • 2. Caractéristiques
      • 2.1 Architecture pour l’intégration de données
      • 2.2 Les grands modèles d’intégration de données
        • 2.2.1 La diffusion de données
        • 2.2.2 La migration de données
        • 2.2.3 La synchronisation
      • 2.3 Modes de transmission
      • 2.4 Type de connexion
        • 2.4.1 Accès synchrone
        • 2.4.2 Accès asynchrone
      • 2.5 Modalité de traitement des données
        • 2.5.1 Traitement des données en Lot ou Batch Processing
        • 2.5.2 Traitement des données en temps réel
        • 2.5.3 Traitement des données en flux ou Stream Processing
        • 2.5.4 Récapitulatif
    • 3. Principes de fonctionnement
      • 3.1 Les étapes d’une bonne intégration de données
      • 3.2 La montée en charge et la tolérance de panne
      • 3.3 Connecteurs
    • 4. Les solutions d’intégration de données
      • 4.1 Les ETL
        • 4.1.1 Les connecteurs
        • 4.1.2 Les flux ETL (mappings)
        • 4.1.3 Les caractéristiques
      • 4.2 Les ELT
      • 4.3 La virtualisation de données
    • 5. Les solutions orientées bus
      • 5.1 Le bus de message
      • 5.2 Le mode point à point
      • 5.3 Le mode publication-souscription
      • 5.4 À retenir
  • Analyser et fiabiliser les données
    • 1. Introduction
    • 2. La préparation de données
    • 3. Analyse descriptive
      • 3.1 Analyses basiques
      • 3.2 Corrélation entre colonnes
      • 3.3 Détection de liens entre tables (entre jeux de données)
    • 4. Analyse exploratoire et visualisation de données
      • 4.1 Visualiser pour mieux analyser !
      • 4.2 Les principes de la Gestalt
      • 4.3 Les primitives graphiques
      • 4.4 Les représentations graphiques
        • 4.4.1 Le texte simple
        • 4.4.2 Les tableaux
        • 4.4.3 Le nuage de points
        • 4.4.4 Les courbes
        • 4.4.5 Les graphes de surface
        • 4.4.6 Les diagrammes à barres
        • 4.4.7 Les histogrammes
        • 4.4.8 Les cartes de chaleurs
        • 4.4.9 Les boîtes à moustaches
        • 4.4.10 Les cartes
        • 4.4.11 Les autres visualisations
      • 4.5 Utiliser la DataViz pour analyser les données
        • 4.5.1 La proximité améliore l’association visuelle
        • 4.5.2 Réduisez le jeu de données si nécessaire
        • 4.5.3 Triez les données
        • 4.5.4 Regroupez les données
        • 4.5.5 Bannissez les surcharges
        • 4.5.6 Jouez sur les couleurs
        • 4.5.7 Astuces visuelles
      • 4.6 Premier bilan
    • 5. Quelques exemples d’analyses
      • 5.1 L’analyse de données par cohorte
      • 5.2 L’analyse inférentielle
      • 5.3 L’analyse prédictive
      • 5.4 L’analyse causale
    • 6. Qualité de la donnée
      • 6.1 Pourquoi faire de la qualité de données ?
      • 6.2 Les critères de qualité de données
      • 6.3 Comment faire de la qualité de données ?
      • 6.4 Analyse, indicateurs et règles
      • 6.5 Les règles
        • 6.5.1 Les formules
        • 6.5.2 Les règles de contrôles et calculs ensemblistes
        • 6.5.3 Les règles de standardisation
        • 6.5.4 Le parsing
      • 6.6 Le dédoublonnage
        • 6.6.1 Principes
        • 6.6.2 Détection de lignes en double
        • 6.6.3 Principe de dédoublonnage par Rapprochement-Consolidation
        • 6.6.4 Première étape : le partitionnement (découpage en groupes)
        • 6.6.5 Deuxième étape: le rapprochement
        • 6.6.6 Troisième étape : re-partitionnement et association
        • 6.6.7 Quatrième étape : consolidation des données (Golden Record)
  • La gouvernance des données
    • 1. Introduction
    • 2. L’équipe de gouvernance de données
    • 3. Les métadonnées
      • 3.1 Les enjeux autour de la gestion des métadonnées
      • 3.2 Les métadonnées techniques
      • 3.3 Les métadonnées métier - Le glossaire métier
        • 3.3.1 La taxonomie
        • 3.3.2 Les hiérarchies
        • 3.3.3 Fonctionnement
    • 4. Le lignage des données
      • 4.1 Introduction
      • 4.2 Les couches de lignage
      • 4.3 Mode de fonctionnement
      • 4.4 Analyse d’impact
      • 4.5 La navigation
    • 5. Le catalogue de métadonnées
    • 6. La sécurité des données
      • 6.1 Anonymisation vs Pseudonymisation
      • 6.2 Chiffrement de l’information
        • 6.2.1 Le chiffrement symétrique
        • 6.2.2 Le chiffrement asymétrique
        • 6.2.3 Caractéristiques de chiffrement
      • 6.3 Masquage permanent des données
      • 6.4 Masquage dynamique des données
      • 6.5 Techniques et méthodes
    • 7. La fabrique de données (Data Fabric)
    • 8. Le maillage de données (Data Mesh)
  • Valoriser ses données avec l’IA
    • 1. Introduction
    • 2. L’utilisation de l’IA
      • 2.1 Prendre des décisions
      • 2.2 Vision par ordinateur
      • 2.3 Le traitement d’informations textuelles (NLP)
    • 3. Le Machine Learning
      • 3.1 Principe de l’apprentissage
      • 3.2 Approche déterministe vs probabiliste
      • 3.3 Les types d’apprentissages
      • 3.4 Le projet de Machine Learning
        • 3.4.1 Première étape : définition des objectifs
        • 3.4.2 Étape intermédiaire : accès et analyse des données
        • 3.4.3 Deuxième étape : préparation des données
        • 3.4.4 Troisième étape : découpage du jeu de données
        • 3.4.5 Quatrième étape: entraînement
        • 3.4.6 Cinquième étape : évaluation et scoring
        • 3.4.7 Sixième étape : déploiement et industrialisation
      • 3.5 Biais et variance
        • 3.5.1 Le biais
        • 3.5.2 La variance
        • 3.5.3 Biais et/ou variance ?
    • 4. Les réseaux de neurones
      • 4.1 Qu’est-ce qu’un réseau de neurones ?
      • 4.2 Fonctionnement d’un neurone
      • 4.3 Les architectures de réseaux de neurones
        • 4.3.1 L’entraînement des réseaux de neurones
        • 4.3.2 Les réseaux de neurones artificiels (ANN)
        • 4.3.3 Les réseaux de neurones convolutifs (CNN)
        • 4.3.4 Les réseaux de neurones récurrents (RNN)
        • 4.3.5 Les réseaux de type AutoEncoder
        • 4.3.6 Les réseaux GAN
      • 4.4 Le Transfer Learning
    • 5. L’eXplainable AI
      • 5.1 Pourquoi et comment expliquer un modèle
      • 5.2 Les algorithmes interprétables
      • 5.3 LIME
      • 5.4 SHAP
      • 5.5 PDP
  • Les grandes solutions de gestion de données
    • 1. Introduction
    • 2. Le Data Warehouse
      • 2.1 Principes généraux de chargement d’un Data Warehouse
      • 2.2 La modélisation
      • 2.3 Les Data Marts
      • 2.4 Les cubes/OLAP
    • 3. Le Data Lake
      • 3.1 Le lac de données
      • 3.2 Le socle technologique
      • 3.3 Lac ou entrepôt de données ?
    • 4. Le référentiel (MDM)
      • 4.1 Introduction
      • 4.2 Les architectures de MDM
        • 4.2.1 Les solutions analytiques ou de consolidation
        • 4.2.2 Les architectures de type Registre
        • 4.2.3 Les solutions de type coexistence
        • 4.2.4 Les solutions de type centralisé
      • 4.3 Les grandes fonctions des MDM multidomaine
        • 4.3.1 La modélisation
        • 4.3.2 L’alimentation
        • 4.3.3 La communication avec les systèmes externes
        • 4.3.4 La gouvernance
        • 4.3.5 La traçabilité des données d’origine
        • 4.3.6 L’historisation des données
    • 5. Le Data Hub
      • 5.1 Les natures de Data Hub
      • 5.2 Les types de stockage
      • 5.3 Centralisation et modélisation des données
    • 6. L’EDI
      • 6.1 Principes de fonctionnement de l’EDI
      • 6.2 EDI et organisations
      • 6.3 Avantages et inconvénients
      • 6.4 Services EDI
    • 7. Bilan
    • Glossaire
    • Index

Auteur

Benoit CAYLAEn savoir plus

Ingénieur en informatique avec plus de 20 ans d’expérience dans la gestion et l’utilisation de données, Benoit CAYLA a mis son expertise au profit de projets très variés tels que l’intégration, la gouvernance, l’analyse, l’IA, la mise en place de MDM ou de solution PIM pour le compte de diverses entreprises spécialisées dans la donnée (dont IBM, Informatica et Tableau). Ces riches expériences l’ont naturellement conduit à intervenir dans des projets de plus grande envergure autour de la gestion et de la valorisation des données, et ce principalement dans des secteurs d’activités tels que l’industrie, la grande distribution, l’assurance et la finance. Également, passionné d’IA (Machine Learning, NLP et Deep Learning), l’auteur a rejoint Blue Prism en 2019 et travaille aujourd’hui en tant qu’expert data/IA et processus. Son sens pédagogique ainsi que son expertise l’ont aussi amené à animer un blog en français (datacorner.fr) ayant pour but de montrer comment comprendre, analyser et utiliser ses données le plus simplement possible.

Caractéristiques

  • Niveau Initié à Confirmé
  • Nombre de pages 419 pages
  • Parution septembre 2022
    • Livre (broché) - 17 x 21 cm
    • ISBN : 978-2-409-03716-0
    • EAN : 9782409037160
    • Ref. ENI : HSDPDATA
  • Parution septembre 2022
    • HTML
    • ISBN : 978-2-409-03717-7
    • EAN : 9782409037177
    • Ref. ENI : LNHSDPDATA