1. Espace Professionnels
  2. Le deep learning avec TensorFlow/Keras - 42 programmes Python pour passer de la théorie à la pratique

Le deep learning avec TensorFlow/Keras 42 programmes Python pour passer de la théorie à la pratique

Bientôt disponible !
Suivez-nous pour être informé dès la sortie

Cet ouvrage a pour objectif d’accompagner ingénieurs, scientifiques et étudiants dans l’apprentissage pratique du deep learning avec TensorFlow/Keras, les outils de Google dédiés à la création d’applications d’apprentissage machine. Destiné à tous ceux qui souhaitent comprendre et maîtriser ces technologies, il propose une démarche progressive alliant théorie et mise en pratique, accessible dès lors que l’on connaît les bases du langage Python. Chaque concept est illustré par des exemples...
Aperçu de la version papier
  • Niveau Confirmé à Expert
  • Parution février 2026

Cet ouvrage a pour objectif d’accompagner ingénieurs, scientifiques et étudiants dans l’apprentissage pratique du deep learning avec TensorFlow/Keras, les outils de Google dédiés à la création d’applications d’apprentissage machine. Destiné à tous ceux qui souhaitent comprendre et maîtriser ces technologies, il propose une démarche progressive alliant théorie et mise en pratique, accessible dès lors que l’on connaît les bases du langage Python. Chaque concept est illustré par des exemples concrets avec 42 programmes téléchargeables, facilement testables en ligne via Google Colab (aucun logiciel à installer).

Le premier chapitre replace le deep learning parmi les grandes familles de techniques d’intelligence artificielle. Les trois suivants introduisent les réseaux de neurones et plus spécifiquement le perceptron multicouche, dont le fonctionnement est détaillé avant la création d’un modèle de reconnaissance de chiffres manuscrits. Ce programme est ensuite amélioré pas à pas pour devenir une application interactive capable d’identifier des chiffres dessinés à l’écran.

Les chapitres suivants présentent les réseaux convolutifs, incontournables pour le traitement d’images. Le lecteur y découvre leurs principes (calcul de convolution, pooling) et leur mise en œuvre avec TensorFlow/Keras à travers plusieurs modèles de référence (LeNet-5, AlexNet, Inception), jusqu’à la reconnaissance d’objets via webcam selon les 1000 catégories d’ImageNet.

Enfin, les derniers chapitres abordent l’optimisation des pipelinesde données, l’augmentation d’images et l’apprentissage par transfert, illustré avec le réseau MobileNet V2 et un projet de classification de 45 espèces de mammifères.

 

 

Caractéristiques

  • Reliure spirale - 17 x 21 cm (Médian)
  • ISBN : 978-2-409-05285-9
  • EAN : 9782409052859
  • Ref. ENI : EIMTENSORFLOW

Caractéristiques

  • HTML
  • ISBN : 978-2-409-05286-6
  • EAN : 9782409052866
  • Ref. ENI : LNEIMTENSORFLOW

Téléchargements

Avant-propos
  1. 1. Pourquoi ce livre ?
  2. 2. À qui s'adresse cet ouvrage ?
  3. 3. Présentation des contenus
  4. 4. Programmes Python disponibles en téléchargement
  5. 5. Quelques mots sur l'auteur
  6. 6. Les remerciements
Introduction à l'intelligence artificielle
  1. 1. Définitions et objectifs de l’IA
    1. 1.1 Actualité
    2. 1.2 Définitions de l’IA
    3. 1.3 IA forte et IA faible
    4. 1.4 Test de Turing
  2. 2. Une histoire mouvementée
    1. 2.1 Des débuts au milieu du XXe siècle
    2. 2.2 Des périodes d’optimisme et de déception
    3. 2.3 Classification des différentes techniques d’IA
    4. 2.4 Succès du deep learning et de l’IA générative
  3. 3. Des perspectives captivantes
    1. 3.1 Intérêt dans tous les secteurs d’activités
    2. 3.2 Des enjeux économiques majeurs
    3. 3.3 Des enjeux sociétaux à surveiller
      1. 3.3.1 Destruction d’emplois
      2. 3.3.2 Questions éthiques et sécuritaires
    4. 3.4 Savoir faire la part des choses
      1. 3.4.1 Automate joueur d’échecs
      2. 3.4.2 Phénomène d’« AI washing »
  4. 4. Conclusion
Découverte des réseaux de neurones
  1. 1. Modèles de réseaux de neurones
    1. 1.1 Inspiration biologique
      1. 1.1.1 Idée de départ
      2. 1.1.2 Le cerveau
      3. 1.1.3 Le neurone biologique
    2. 1.2 Modélisation du neurone
      1. 1.2.1 Neurone artificiel
      2. 1.2.2 Analogie avec le neurone biologique
      3. 1.2.3 Exemples de calculs
    3. 1.3 Construction de réseaux de neurones
      1. 1.3.1 Le perceptron de Frank Rosenblatt
      2. 1.3.2 Connexions entre neurones
      3. 1.3.3 Analogie avec les neurones biologiques
    4. 1.4 De nombreux modèles de réseaux
      1. 1.4.1 Inventaire des principaux réseaux
      2. 1.4.2 Réseau supervisé et non supervisé
  2. 2. Réseau de type perceptron multicouche
    1. 2.1 Règles de construction
      1. 2.1.1 Représentation visuelle
      2. 2.1.2 Description mathématique
    2. 2.2 Fonctionnement du perceptron
      1. 2.2.1 Différence entre inférence et apprentissage
      2. 2.2.2 Explication visuelle de l'inférence
      3. 2.2.3 Formulation mathématique
      4. 2.2.4 Exemples détaillés
    3. 2.3 Applications du perceptron multicouche
      1. 2.3.1 Classification vs régression
      2. 2.3.2 Exemples illustratifs
    4. 2.4 Algorithme d'apprentissage du perceptron
      1. 2.4.1 Objectifs
      2. 2.4.2 Explications visuelles
      3. 2.4.3 Formulation mathématique
      4. 2.4.4 Éléments à retenir
  3. 3. Démarche de mise en œuvre d'un perceptron
    1. 3.1 Démarche globale
    2. 3.2 Analyse du problème
    3. 3.3 Choix des données d'apprentissage (et de test)
    4. 3.4 Construction de la topologie du réseau
    5. 3.5 Phase d'apprentissage
    6. 3.6 Test de généralisation
    7. 3.7 Exploitation du réseau
  4. 4. Expérimentations avec l'outil Playground
    1. 4.1 Ecosystème associé à TensorFlow
    2. 4.2 Fonctionnement de Playground
      1. 4.2.1 Interface graphique
      2. 4.2.2 Représentation d'un perceptron multicouche
    3. 4.3 Construction d'un premier réseau
      1. 4.3.1 Analyse du problème
      2. 4.3.2 Sélection des données d'apprentissage et de test
      3. 4.3.3 Construction du perceptron
      4. 4.3.4 Apprentissage et analyse des résultats
    4. 4.4 Observation de l'influence des paramètres
      1. 4.4.1 Fonction d'activation
      2. 4.4.2 Taille du réseau
      3. 4.4.3 Paramètres d'apprentissage
      4. 4.4.4 Fonctionnement non déterministe
    5. 4.5 Vers des problèmes plus difficiles
      1. 4.5.1 Données bruitées
      2. 4.5.2 Dataset « spirale »
    6. 4.6 Résumé du fonctionnement de Playground
  5. 5. Lave-linge intelligent de la société LG
    1. 5.1 Utilisation de l'IA comme argument commercial
    2. 5.2 Levée du mystère avec l'analyse des brevets
    3. 5.3 Détails sur l'IA utilisée par LG
    4. 5.4 Fonctionnement du lave-linge
  6. 6. Conclusion
Programmation d'un perceptron multicouche
  1. 1. Frameworks pour le deep learning
    1. 1.1 Historique et panorama
    2. 1.2 Quel framework choisir ?
  2. 2. Environnement de développement
    1. 2.1 Solution locale ou sur le cloud
    2. 2.2 Environnement Colab
      1. 2.2.1 Création d'un compte Google
      2. 2.2.2 Lancement de l'application
      3. 2.2.3 Concept de machine virtuelle
      4. 2.2.4 Gestion des notebooks
    3. 2.3 Développement d'un notebook sous Colab
      1. 2.3.1 Fonctionnement de la fenêtre Colab
      2. 2.3.2 Écriture du premier notebook
      3. 2.3.3 Exécution du notebook
      4. 2.3.4 Amélioration du premier notebook
      5. 2.3.5 Contrôle de l'exécution
    4. 2.4 Fonctions avancées sous Colab
      1. 2.4.1 Accès aux commandes systèmes
      2. 2.4.2 Bibliothèques Python
      3. 2.4.3 Autres fonctionnalités utiles
      4. 2.4.4 Assistant Gemini
      5. 2.4.5 Formules payantes de Colab
    5. 2.5 Expérience personnelle avec Colab
      1. 2.5.1 Conditions d'utilisation
      2. 2.5.2 Configuration de travail
  3. 3. Bibliothèques TensorFlow/Keras
    1. 3.1 Introduction
    2. 3.2 API TensorFlow
      1. 3.2.1 Évolution des versions
      2. 3.2.2 Accès à la documentation
    3. 3.3 Concept de Tenseur
      1. 3.3.1 Types tf.Tensor et tf.Variable
      2. 3.3.2 Exemples de tenseurs tf.Tensor
      3. 3.3.3 Opération sur les tenseurs
      4. 3.3.4 Utilisation des tableaux NumPy
      5. 3.3.5 Visualisation des tenseurs
      6. 3.3.6 Représentation des images
    4. 3.4 Bibliothèque Keras
      1. 3.4.1 Présentation de l'API
      2. 3.4.2 Mise en pratique
      3. 3.4.3 Exemple de code source
  4. 4. Reconnaissance de chiffres manuscrits
    1. 4.1 Classification d'images de la base MNIST
    2. 4.2 Construction d'un perceptron multicouche
    3. 4.3 Programmation du réseau avec TensorFlow/Keras
      1. 4.3.1 Chargement et mise en forme des données
      2. 4.3.2 Construction du perceptron multicouche
      3. 4.3.3 Configuration de l'apprentissage
      4. 4.3.4 Résultats de l'apprentissage
      5. 4.3.5 Test de généralisation
    4. 4.4 Exploitation du réseau
      1. 4.4.1 Sauvegarde du modèle
      2. 4.4.2 Stockage des fichiers
      3. 4.4.3 Exploitation du modèle entraîné
  5. 5. Conclusion
Analyse et amélioration des modèles
  1. 1. Simplification des programmes
    1. 1.1 Format des images
    2. 1.2 Description du modèle
    3. 1.3 Phases d'évaluation
    4. 1.4 Inférence du modèle
  2. 2. Analyse des résultats
    1. 2.1 Visualisation du réseau
      1. 2.1.1 Méthode .summary()
      2. 2.1.2 Fonction plot_model()
      3. 2.1.3 Logiciel Netron
      4. 2.1.4 Application interactive en ligne
    2. 2.2 Courbes d'apprentissage
      1. 2.2.1 Affichage des courbes
      2. 2.2.2 Analyse des résultats
    3. 2.3 Erreurs de classification
      1. 2.3.1 Affichage des images
      2. 2.3.2 Analyse des résultats
    4. 2.4 Matrice de confusion
      1. 2.4.1 Principe de construction
      2. 2.4.2 Programmation avec TensorFlow
      3. 2.4.3 Programmation avec scikit-learn
      4. 2.4.4 Analyse des résultats
    5. 2.5 Module d'analyse des résultats
      1. 2.5.1 Création du module
      2. 2.5.2 Utilisation du module
  3. 3. Optimisation des hyperparamètres
    1. 3.1 Différents paramètres d'un perceptron
    2. 3.2 Précaution avec Colab
    3. 3.3 Approche expérimentale
      1. 3.3.1 Principe
      2. 3.3.2 Mise en œuvre
      3. 3.3.3 Limitations de la démarche
    4. 3.4 Maîtrise du surapprentissage
      1. 3.4.1 Couche Dropout
      2. 3.4.2 Mise en œuvre
    5. 3.5 Contrôle de l'apprentissage
      1. 3.5.1 Mécanismes de callback
      2. 3.5.2 Classes Callback prédéfinies
      3. 3.5.3 Mise en œuvre
    6. 3.6 Optimisation des hyperparamètres
      1. 3.6.1 Objectifs du module Keras-Tuner
      2. 3.6.2 Définition des paramètres avec la classe HyperParameters
      3. 3.6.3 Exécution de l'algorithme avec la classe Tuner
      4. 3.6.4 Mise en œuvre
  4. 4. Influence du jeu de données
    1. 4.1 Augmentation du dataset
      1. 4.1.1 Principe
      2. 4.1.2 Décalage des images
    2. 4.2 Présence d'erreurs dans les données
      1. 4.2.1 Introduction d'erreurs dans les labels
      2. 4.2.2 Impact sur les performances du modèle
    3. 4.3 Mauvaise distribution des classes
      1. 4.3.1 Visualisation de la distribution par histogramme
      2. 4.3.2 Expérimentations de classes déséquilibrées
    4. 4.4 Détection d'un biais dans les données
      1. 4.4.1 Application graphique interactive
      2. 4.4.2 Observation des résultats
  5. 5. Autres jeux de données
    1. 5.1 Introduction
    2. 5.2 Dataset Fashion_MNIST
      1. 5.2.1 Description de la base
      2. 5.2.2 Accès aux données
    3. 5.3 Datasets EMNIST
      1. 5.3.1 Description de la base
      2. 5.3.2 Accès aux données
    4. 5.4 Dataset MedMNIST
      1. 5.4.1 Description de la base
      2. 5.4.2 Accès aux données
  6. 6. Conclusion
Solution des réseaux à convolution
  1. 1. Analyse des images numériques
    1. 1.1 De nombreux domaines d’application
      1. 1.1.1 Exemples d’exploitation des images numériques
      2. 1.1.2 Différentes approches d’analyse d’images
    2. 1.2 Problématique de taille des images
      1. 1.2.1 Explosion de la dimension des perceptrons multicouches
      2. 1.2.2 Nécessité d’un prétraitement
    3. 1.3 Révélation de la compétition ILSVRC
      1. 1.3.1 Base d’images ImageNet
      2. 1.3.2 Victoire d’AlexNet en 2012
      3. 1.3.3 Principe du fonctionnement d’AlexNet
  2. 2. Fonctionnement d’un réseau à convolution
    1. 2.1 Exploitation de « features »
      1. 2.1.1 Notion de « features »
      2. 2.1.2 Extraction automatique
    2. 2.2 Fonctionnement d’un réseau à convolution
      1. 2.2.1 Architecture globale
      2. 2.2.2 Convolution en traitement d’images
      3. 2.2.3 Fonctionnement des couches de convolution
      4. 2.2.4 Fonctionnement des couches de pooling
      5. 2.2.5 Précisions sur le « stride » et le « padding »
    3. 2.3 Mise en œuvre d’un réseau à convolution
      1. 2.3.1 Fonctionnement du réseau
      2. 2.3.2 Algorithme d’apprentissage
      3. 2.3.3 Démarche de développement
  3. 3. Exemples de réseaux à convolution
    1. 3.1 Les débuts avec LeNet-1
    2. 3.2 Réseau LeNet-5
      1. 3.2.1 Publication historique
      2. 3.2.2 Description détaillée
      3. 3.2.3 Calcul du nombre de paramètres
      4. 3.2.4 Animation interactive en ligne
      5. 3.2.5 Site internet de Yann Le Cun
    3. 3.3 Réseau AlexNet
      1. 3.3.1 Publication historique
      2. 3.3.2 Description détaillée
    4. 3.4 Réseaux VGG16 et 19
      1. 3.4.1 Publication historique
      2. 3.4.2 Description détaillée
    5. 3.5 Réseaux Inception
      1. 3.5.1 Publication historique de GoogLeNet
      2. 3.5.2 Description détaillée de Inception-v1
      3. 3.5.3 Évolutions des modèles Inception
    6. 3.6 Nouvelles architectures
  4. 4. Un réseau à convolution dans une centrale vapeur
    1. 4.1 Une caméra pour identifier le textile
    2. 4.2 Découverte du fonctionnement dans les brevets
    3. 4.3 Synoptique du système complet
    4. 4.4 Intégration d’une caméra dans la centrale vapeur
    5. 4.5 Architecture du réseau à convolution utilisé
    6. 4.6 Mise en œuvre de la solution
  5. 5. Conclusion
Programmation d'un réseau à convolution
  1. 1. Construction d'un modèle avec Keras
    1. 1.1 Continuité avec le perceptron multicouche
    2. 1.2 Couche de convolution
    3. 1.3 Couches de pooling
      1. 1.3.1 Pooling par moyenne
      2. 1.3.2 Pooling par maximum
    4. 1.4 Normalisation par lots
      1. 1.4.1 Description
      2. 1.4.2 Approfondissement
    5. 1.5 Transfert vers la classification
  2. 2. Programmation du réseau LeNet-5
    1. 2.1 Rappel de l'architecture du modèle
    2. 2.2 Programme avec des explications détaillées
    3. 2.3 Simplification du programme et observations
    4. 2.4 Amélioration des performances avec Keras-Tuner
      1. 2.4.1 Choix du domaine de recherche
      2. 2.4.2 Programmation avec Keras-Tuner
      3. 2.4.3 Résultats
    5. 2.5 Exploitation du modèle final
      1. 2.5.1 Nouvel entraînement
      2. 2.5.2 Expérimentation ludique
  3. 3. Expérimentation de modèles avec ImageNet
    1. 3.1 Objectifs
    2. 3.2 Dataset ImageNet 1000
      1. 3.2.1 Téléchargement de la base d'images
      2. 3.2.2 Classification des images : wordnet et synset
      3. 3.2.3 Numérotation des classes
      4. 3.2.4 Dénomination des fichiers
      5. 3.2.5 Synthèse
    3. 3.3 Module keras.applications
      1. 3.3.1 Contenu du module
      2. 3.3.2 Exploitation des modèles
    4. 3.4 Application de reconnaissance d'images
      1. 3.4.1 Structure de l'application
      2. 3.4.2 Fonction pour classer les images
      3. 3.4.3 Sélection d'images avec le module google.colab
      4. 3.4.4 Notebook complet de l'application
      5. 3.4.5 Exemples de résultats
    5. 3.5 Code source des modèles construits avec Keras
      1. 3.5.1 API fonctionnelle
      2. 3.5.2 Exemple du réseau VGG16
      3. 3.5.3 Exemple du réseau Inception V3
  4. 4. Identification d'objets avec la webcam
    1. 4.1 Utilisation de la webcam avec Colab
    2. 4.2 Notebook de l’application
    3. 4.3 Exemples de résultats
  5. 5. Conclusion
Jeux de données avec des fichiers d'images
  1. 1. Manipulation des images avec TensorFlow/Keras
    1. 1.1 Codage et conversion des images
    2. 1.2 Jeux de données composés de fichiers d'images
  2. 2. Jeux de données du module tensorflow_datasets
    1. 2.1 Présentation du module
      1. 2.1.1 Catalogue de jeux de données
      2. 2.1.2 API intégrée au module
    2. 2.2 Exemple du dataset « rock_paper_scissors »
      1. 2.2.1 Chargement du jeu de données
      2. 2.2.2 Informations sur le jeu de données
    3. 2.3 Utilisation d'objets tf.data.Dataset
      1. 2.3.1 Description de la classe tf.data.Dataset
      2. 2.3.2 Affichage des caractéristiques d'un Dataset
      3. 2.3.3 Construction d'un pipeline de données
      4. 2.3.4 Optimisation des performances
  3. 3. Exploitation d'objets Dataset par un modèle
    1. 3.1 Objectifs du programme
    2. 3.2 Solution avec prétraitement sur le Dataset
      1. 3.2.1 Mise en forme des images
      2. 3.2.2 Finalisation du pipeline
      3. 3.2.3 Modèle de classification du Chifoumi
    3. 3.3 Solution avec prétraitement dans le modèle
      1. 3.3.1 Mise en forme des images
      2. 3.3.2 Finalisation du pipeline
      3. 3.3.3 Modèle de classification du Chifoumi
    4. 3.4 Amélioration avec augmentation des données
      1. 3.4.1 Principe de l'augmentation des données
      2. 3.4.2 Solution pour augmenter les images
      3. 3.4.3 Couches d'augmentation de keras.layers
      4. 3.4.4 Application pour la classification du Chifoumi
    5. 3.5 Configuration à adopter
  4. 4. Exploitation directe de fichiers d'images
    1. 4.1 Origine des fichiers
    2. 4.2 Jeux de données de la plateforme Kaggle
      1. 4.2.1 Présentation de la plateforme
      2. 4.2.2 Jeu de données de photos de mammifères
      3. 4.2.3 Installation des fichiers sur Drive
      4. 4.2.4 Analyse des images
    3. 4.3 Exploitation des fichiers d'images avec un modèle
      1. 4.3.1 Création d'objets Dataset à partir de fichiers
      2. 4.3.2 Application pour classer les images de mammifères
      3. 4.3.3 Module « deprecated » keras.preprocessing.image
    4. 4.4 Jeu de données accessible depuis une URL
      1. 4.4.1 Jeu de données avec des photos de fleurs
      2. 4.4.2 Téléchargement avec la commande wget
      3. 4.4.3 Téléchargement avec la fonction gdown.download()
      4. 4.4.4 Téléchargement avec la fonction utils.get_file()
      5. 4.4.5 Exploitation des fichiers d'images avec un modèle
  5. 5. Conclusion
Introduction au transfer learning
  1. 1. Solution « no-code » avec la Teachable Machine
    1. 1.1 Outils « no-code » pour la classification d'images
    2. 1.2 Exemple d'utilisation de la Teachable Machine
      1. 1.2.1 Création d'un projet de classification d'images
      2. 1.2.2 Définition des classes avec les exemples
      3. 1.2.3 Lancement d'un apprentissage
      4. 1.2.4 Tests sur de nouvelles images
    3. 1.3 Exploitation d'un modèle créé par la Teachable Machine
      1. 1.3.1 Exportation du modèle
      2. 1.3.2 Exemples de code Python
      3. 1.3.3 Classification d'images de mammifères
  2. 2. Modèles cachés dans la Teachable Machine
    1. 2.1 Apprentissage par transfert
      1. 2.1.1 Principes du transfer learning
      2. 2.1.2 Application à la Teachable Machine
    2. 2.2 Réseau MobileNet V1
      1. 2.2.1 Analyse de la complexité d'une couche de convolution 2D
      2. 2.2.2 Simplification des calculs de convolution
      3. 2.2.3 Architecture du réseau MobileNet V1
      4. 2.2.4 Définition de modèles paramétrables
      5. 2.2.5 Performances des réseaux MobileNet V1
    3. 2.3 Réseau MobileNet V2
      1. 2.3.1 Introduction des « inverted residual block »
      2. 2.3.2 Architecture du réseau MobileNet V2
      3. 2.3.3 Définition de modèles paramétrables
      4. 2.3.4 Performances des réseaux MobileNet V2
      5. 2.3.5 Modèle utilisé par la Teachable Machine
    4. 2.4 Réseaux MobileNet V3 et V4
  3. 3. Programmation du transfer learning avec Keras
    1. 3.1 Architecture du code
    2. 3.2 Classification des images de mammifères
      1. 3.2.1 Construction du modèle
      2. 3.2.2 Apprentissage et résultats
    3. 3.3 Expérimentations avec de nouvelles images
      1. 3.3.1 Archivage des modèles à tester
      2. 3.3.2 Application de classification
      3. 3.3.3 Analyse des résultats
  4. 4. Conclusion
Conclusion générale
  1. 1. Rappel des objectifs de ce livre
  2. 2. Introduction progressive des différentes notions
    1. 2.1 Chapitre Introduction à l'intelligence artificielle
    2. 2.2 Chapitre Découverte des réseaux de neurones
    3. 2.3 Chapitre Programmation d'un perceptron multicouche
    4. 2.4 Chapitre Analyse et amélioration des modèles
    5. 2.5 Chapitre Solution des réseaux à convolution
    6. 2.6 Chapitre Programmation d'un réseau à convolution
    7. 2.7 Chapitre Jeux de données avec des fichiers d'images
    8. 2.8 Chapitre Introduction au transfer learning
  3. 3. Pour aller plus loin...
Annexes
  1. 1. Annexe 1 : principales commandes Linux
  2. 2. Annexe 2 : commandes de l'outil pip
  3. 3. Annexe 3 : bibliothèques Python
  4. 4. Annexe 4 : acronymes
 
  1. Références bibliographiques
  2. Index

Jean-Christophe RIAT

Ingénieur diplômé de l’École Centrale de Lille et docteur en informatique, Jean-Christophe RIAT a mené l’essentiel de sa carrière comme chef de projet en innovation au sein d’un grand constructeur automobile. Enseignant depuis plus de 25 ans l’intelligence artificielle à l’EPSI Paris, il a accompagné l’évolution des techniques d’IA, en particulier du machine learning. Il est également l’auteur de nombreux articles consacrés à TensorFlow et Keras dans la revue Programmez!. Cet ouvrage s’appuie sur cette double expérience industrielle et pédagogique afin de proposer une approche progressive, concrète et directement applicable.

Nos nouveautés

voir plus