Je commence à le lire, donc difficile de donner un avis. A première vue: Très bien
vincent R- Livres & vidéos
- Le Machine Learning et l'IA générative avec Python - De la théorie à la pratique (2e édition)
Le Machine Learning et l'IA générative avec Python De la théorie à la pratique (2e édition)
Les points forts du livre :
- Une progression pédagogique rigoureuse, de la théorie à la pratique,
- Une mise en œuvre complète avec les outils Python de référence,
- Une ouverture vers les technologies émergentes : Deep Learning, GANs et NLP
- Niveau Confirmé à Expert
- Nombre de pages 916 pages
- Parution juin 2025
- Niveau Confirmé à Expert
- Parution juin 2025
Préface de Patrick Albert – Cofondateur d'ILOG et du HUB France IA
Ce livre sur le Machine Learning et l'IA générative avec le langage Python permet de disposer des connaissances théoriques nécessaires pour une compréhension approfondie du Machine Learning et d’appréhender les outils techniques utiles pour mettre en pratique les concepts étudiés. L’auteur y expose des exemples concrets sur les concepts de l’apprentissage automatique. Les lecteurs avertis trouveront dans ce livre une occasion d’aller plus loin dans leur compréhension des algorithmes du Machine Learning.
L’auteur commence par expliquer les enjeux de la Data Science ainsi que les notions fondamentales du Machine Learning avant de présenter la démarche théorique d'une expérimentation en Data Science avec les notions de modélisation d'un problème et de métriques de mesure de performances d'un modèle.
Le lecteur peut ensuite passer à la pratique en manipulant les bibliothèques Python NumPy et Pandas, ainsi que l’environnement Jupyter. Il peut ainsi aborder sereinement les chapitres à venir, qui lui feront découvrir les concepts mathématiques, et la pratique sous-jacente, relatifs aux algorithmes du Machine Learning et de l'IA générative, tels que les statistiques pour la Data Science, les régressions linéaire, polynomiale ou logistique, les arbres de décision et Random Forest, l’algorithme K-means, les machines à vecteurs de support (Support Vector Machine), l’analyse en composantes principales, les réseaux de neurones. Le Deep Learning avec les Generative Adversarial Networks pour le développement de vos propres modèles de génération d'images réalistes. Les notions de Deep Learning sont mises en pratique avec TensorFlow, OpenCV et PyTorch dans les environnements Google Colab et VSCode.
Pour conclure son apprentissage, le lecteur abordera le traitement automatique du langage (Natural Language Processing) et les concepts fondamentaux du Prompt Engineering.
Caractéristiques
- Livre (broché) - 17 x 21 cm
- ISBN : 978-2-409-05001-5
- EAN : 9782409050015
- Ref. ENI : EIHS-2MLPYT
Caractéristiques
- HTML
- ISBN : 978-2-409-05002-2
- EAN : 9782409050022
- Ref. ENI : LNEIHS-2MLPYT
Téléchargements
Introduction
- Préface
Avant-propos
- Introduction générale
- Pourquoi ce livre ?
- À qui s'adresse ce livre ?
- Comment est organisé ce livre ?
- Comment lire ce livre ?
- Quels sont les prérequis pour la lecture de ce livre ?
- Qui est l'auteur ?
- Remerciements
La Data Science
- Objectif du chapitre
- L'objectif recherché en Machine Learning
- Une expérimentation Machine Learning
- 1. Types de données
- 2. Préparation des données
- Cycle de vie d'un projet Data Science
- Les algorithmes du Machine Learning
- Le problème de surapprentissage
- Les paramètres et les hyperparamètres
- Validation croisée
- Données d'entraînement, de validation et de test
- Métriques de performance
- 1. Métriques pour les problèmes derégression
- 2. Métriques pour la classification
- a. Matrice de confusion binaire
- b. Matrice de confusion générale
- c. Exemple de matrice de confusion
- d. La courbe ROC
- 3. Métriques pour le clustering
Le langage Python
- Objectif du chapitre
- Python en deux mots
- Installer l'interpréteur Python
- Les bases de la programmation Python
- 1. Hello world avec Python
- a. La fonction print
- b. La fonction input
- 1. Hello world avec Python
- 2. Les structures de données
- a. Les variables numériques
- b. Les chaînes de caractères
- c. Le type booléen
- d. Les listes
- e. Les tuples
- f. Les dictionnaires
- g. Les ensembles
- h. Liste vs tuple vs dictionnaire vs ensemble
- 3. Structurer un code Python
- a. L’indentation et les blocs de code
- b. Écrire une instruction sur plusieurs lignes
- c. Écrire plusieurs instructions sur une ligne
- d. Les commentaires en Python
- 4. Les instructions conditionnelles
- a. Les conditions avec la structure if
- b. Les conditions avec la structure if-else
- c. Les conditions avec la structure if-elif-else
- 5. Les boucles
- a. La boucle for
- b. La boucle for et la fonction zip
- c. La boucle while
- d. Contrôler les boucles avec break
- e. Contrôler les boucles avec continue
- 6. Les fonctions
- a. Définir et utiliser une fonction sans paramètre
- b. Les fonctions avec paramètres
- c. Les valeurs par défaut des paramètres
- d. Renvoi de résultats
- e. La portée des variables
- f. Passage d’arguments à une fonction
- g. Les fonctions récursives
- 7. Les listes en compréhension
- a. Les origines des listes en compréhension
- b. Construire une liste avec les listes en compréhension
- c. Application de fonction avec une liste en compréhension
- d. Utiliser if-else avec les listes en compréhension
- e. Filtrer avec les listes en compréhension
- 8. Les expressions régulières
- a. Regex sans caractères spéciaux
- b. Regex avec caractères spéciaux
- c. Regex avec les multiplicateurs
- d. Regex avec un nombre d’occurrences limité
- e. Regex avec groupage des résultats
- f. Taille des motifs
- g. Aller plus loin avec les expressions régulières
- 9. Gestion des exceptions
- a. La levée des exceptions
- b. Utiliser le bloc try-except
- c. Gérer plusieurs exceptions
- d. Utiliser la clause finally
- e. Utiliser la structure try-except-finally-else
- f. Lever une exception avec raise
La bibliothèque NumPy
- Objectif du chapitre
- NumPy en deux mots
- Les tableaux NumPy
- 1. Création de tableaux NumPy
- a. Créer un tableau à une dimension
- b. Créer un tableau à plusieurs dimensions
- 1. Création de tableaux NumPy
- 2. Les dimensions d’un tableau NumPy
- 3. Le type et la taille d’un tableau NumPy
- 4. Fonction d’initialisation de tableaux NumPy
- 1. Accès aux données d’un tableau à unedimension
- 2. Accès aux données d’un tableau à deuxdimensions
- 3. Accès aux données d’un tableau à troisdimensions
- 1. Opérations mathématiques de baseavec NumPy
- 2. Opérations sur les matrices avec NumPy
- 1. Restructurer un tableau NumPy
- 2. Superposer des tableaux NumPy
- 1. Créer et utiliser un masque booléen
- 2. Un masque avec plusieurs conditions
- 3. Les fonctions numpy.any et numpy.all
- 1. Comparaison des tailles en mémoire
- 2. Comparaison des temps de calcul
- a. Temps de calcul sur une liste Python
- b. Temps de calcul sur un tableau NumPy
La bibliothèque Pandas
- Objectif du chapitre
- C'est quoi, Pandas ?
- Installation de Pandas
- DataFrame Pandas
- 1. Création d’un DataFrame à partird’un dictionnaire
- 2. Création d’un DataFrame à partird’un tableau NumPy
- 3. Chargement des données à partirde fichiers
- a. Lecture des données d’un fichier CSV
- b. Lecture d’un fichier texte
- 1. Lire les lignes d’un DataFrame
- a. Lire une ligne d’un DataFrame
- b. Lire plusieurs lignes d’un DataFrame
- c. Parcourir les lignes d’un DataFrame
- d. Filtrer les lignes avec une condition
- e. Filtrer les lignes avec plusieurs conditions
- f. Filtrage avec des critères textuels
- g. Réinitialiser les index
- h. Filtrer avec les valeurs uniques
- i. Filtrer avec une expression régulière
- a. Liste des variables d’un DataFrame
- b. Accès aux valeurs d’une colonne
- c. Accès à plusieurs colonnes
- 1. Modifier les valeurs dans un DataFrame
- 2. Modifier la structure d’un DataFrame
- a. Ajouter une variable à un DataFrame
- b. Réordonner les variables d’un DataFrame
- c. Supprimer une variable d’un DataFrame
- d. Utiliser la méthode melt pour diminuer lenombre de variables
- 1. Tri avec un seul critère
- 2. Tri avec plusieurs critères
- 1. Faire un résumé direct
- 2. Faire un résumé par agrégation
- 3. Agrégation avec plusieurs paramètres
Travailler avec Jupyter
- Objectif du chapitre
- Installation de l'environnement Anaconda et Jupyter
- Travailler avec Jupyter
- 1. Les documents dans Jupyter
- a. Créer un dossier
- b. Renommer un dossier
- c. Déplacer un dossier
- d. Charger des documents
- e. Supprimer des éléments
- f. Navigation dans l’arborescence des dossiers
- g. Créer un notebook
- 1. Les documents dans Jupyter
- 2. Utiliser un notebook Jupyter
- a. Renommer un notebook
- b. Les cellules Jupyter
- c. Les fonctionnalités d’un notebook
- 3. Utiliser les widgets Jupyter
- a. Le widget FloatSlider
- b. Associer une fonction à un slider
- c. Le widget interact
- d. Le widget Image
- e. Le widget DatePicker
Statistiques
- Objectif du chapitre
- Les statistiques descriptives
- 1. Paramètres de position
- a. La moyenne
- b. Le mode
- c. La médiane
- d. Les quartiles
- 1. Paramètres de position
- 2. Paramètres de dispersion
- a. La variance
- b. Calcul de la variance avec la formule de Koenig
- c. L’écart-type
- d. L’écart interquartile
- 1. Principe de l’échantillonnage
- 2. Résultats sur la distribution des moyennes
- 3. Résultats sur la distribution des proportions
- 4. Théorème central limite
- 1. Estimation ponctuelle
- 2. Estimation de la moyenne par intervalle de confiance
- 3. Estimation d’une proportion par intervalle de confiance
- 4. Test d’hypothèse
- a. Tests paramétriques
- b. Tests non paramétriques
- c. Construire un test d’hypothèse
- a. Test de conformité
- b. Test d’adéquation
- c. Tests d’homogénéité
- d. Test d’indépendance de variables
- 1. Techniques d’analyse des séries temporelles
- a. La décomposition des séries temporelles
- b. Lissage des données
- c. Modèles de prévision
- a. Tests de stationnarité
- b. Transformation pour rendre une série stationnaire
La régression linéaire et polynomiale
- Objectif du chapitre
- La régression linéaire simple
- 1. La régression linéaire simple depoint de vue géométrique
- 2. La régression linéaire simple depoint de vue analytique
- a. La méthode des moindres carrés
- b. Quelques considérations statistiques surles données
- 1. La méthode des moindres carrés pourla régression multiple
- 2. La méthode de la descente de gradient
- 3. Exemple de régression linéaire multiple
- a. Définition du jeu de données utilisées
- b. Régression linéaire multiple avecScikit-learn
- c. Importer les modules Scikit-learn
- d. Lecture des données dans un DataFrame
- e. Normalisation des données
- f. Construction d’un modèle linéaire
- g. Évaluation d’un modèle linéaire
- h. Évaluer le futur comportement d’un modèle
- i. Cross-validation avec KFold
- 1. Exemple de régression polynomiale
- a. Construction d’un modèle polynomial
- b. Le coefficient de détermination R<sup class="superscript">2</sup>
- c. R<sup class="superscript">2</sup> et les valeurs extrêmes
- d. Modèle polynomial et surapprentissage
- 1. La régularisation Lasso
- 2. La régularisation Ridge
La régression logistique
- Objectif du chapitre
- La régression logistique
- Prédire les survivants du Titanic
- 1. Définition du jeu de données Titanic
- 2. Réalisation du modèle de régressionlogistique
- a. Chargement des modules Scikit-learn
- b. Lecture des données
- c. Traitement des valeurs manquantes
- d. Transformation de variables
- e. Sélection des variables
- f. Traitement des variables catégorielles
- g. Entraînement du modèle logistique
- h. Le seuil de décision
Arbres de décision et Random Forest
- Objectif du chapitre
- 1. Construction d’un arbre de décision
- 2. Prédire la classe d’appartenance avec unarbre de décision
- 3. Considérations théoriques sur lesarbres de décision
- a. Choix de la variable de segmentation
- b. Profondeur d’un arbre de décision
L’algorithme k-means
- Objectif du chapitre
- k-means du point de vue géométrique
- k-means du point de vue algorithmique
- Application de k-means avec Scikit-learn
- L'algorithme k-means et les valeurs extrêmes
- Choisir le k de k-means
- 1. Déterminer k avec la méthode Elbow
- 2. Déterminer k avec le coefficient de silhouette
- Les limites de k-means
- Avantages et inconvénients de l'algorithme k-means
- Quelques versions de l'algorithme k-means
- Conclusion
Support Vector Machine
- Objectif du chapitre
- Le SVM du point de vue géométrique
- Le SVM du point de vue analytique
- Données non linéairement séparables
- 1. Le Kernel Trick
- 2. La condition de Mercer
- 3. Exemple de fonction noyau
- Détecter les fraudes de cartes de crédit
- 1. Les données des transactions de cartes decrédit
- 2. Application de l’algorithme SVM pour la détectiondes transactions bancaires frauduleuses
- a. Application de l’algorithme SVM sur les donnéescreditcard.csv
- b. Application du SVM sur un sous-ensemble de creditcard.csv
- c. Application du SVM sur des données normalisées
- 3. Les paramètres de l’algorithme SVM
- a. Le paramètre Kernel pour la variation dela fonction noyau
- b. Le paramètre C
- c. Le paramètre Gamma
- d. Le paramètre C versus le paramètreGamma
- e. Tuning des hyperparamètres d’un SVM avecGridSearchCV
Analyse en composantes principales
- Objectif du chapitre
- Pourquoi l'ACP ?
- L'ACP du point de vue géométrique
- L'ACP du point de vue analytique
- Indicateurs de la qualité de la représentation des données
- 1. Indicateurs liés aux individus
- a. Score des individus
- b. Qualité de la représentation desindividus
- c. Contribution des individus
- 1. Indicateurs liés aux individus
- 2. Indicateurs liés aux variables
- a. Le cercle des corrélations
- b. Qualité de la représentation desvariables
- c. Contribution des variables
- 1. Déterminer le nombre de facteurs pertinents
- 2. Interprétation des résultats surles individus
- a. Représentation des individus
- b. Calcul de la qualité de la représentationdes individus
- c. Calcul de la contribution des individus
- a. Tracer un cercle des corrélations
- b. Calcul de la qualité de la représentationdes variables
- c. Calcul des contributions des variables
Les réseaux de neurones
- Objectif du chapitre
- Modélisation d'un neurone artificiel
- 1. Le neurone biologique
- 2. Le neurone artificiel
- Architecture d'un réseau de neurones
- L'algorithme de rétropropagation
- Exemple d'un réseau de neurones avec Scikit-learn
- Conclusion
Le Deep Learning avec TensorFlow
- Objectif du chapitre
- Le Deep Learning : notions générales
- 1. Réseau de neurones avec plusieurs couchesd’entrée
- 2. Réseau de neurones avec plusieurs couchesde sortie
- 3. Réseau de neurones avec des branchementsconditionnels
- 4. Réseau de neurones avec de la récurrenceRNN
- 5. Réseau de neurones avec couches de convolutionCNN
- 6. Éviter le surapprentissage avec les couchesDropout
- 7. Le Transfer Learning
- Introduction à TensorFlow
- 1. Installer TensorFlow
- a. Créer un environnement virtuel
- b. Installer des bibliothèques dans un environnementvirtuel avec Anaconda
- c. Installer la bibliothèque TensorFlow
- d. Tester TensorFlow
- 1. Installer TensorFlow
- 2. Opérations élémentairesavec les tensors
- a. Travailler avec les tensors
- b. Les tensors variables
- c. Initialiser les tensors
- d. Opérations algébriques avec lestensors
- 1. Charger les données
- 2. Définir un MLP avec Sequential API
- 3. Accéder aux éléments d’unréseau de neurones
- 4. Initialisation des poids et des biais d’un réseaude neurones
- 5. Compiler un réseau de neurones
- 6. Entraîner un réseau de neurones
- 7. Analyser les résultats de l’entraînementd’un réseau de neurones
- 8. Évaluer un réseau de neurones
- 9. Prédire avec un réseau de neuronespour la classification
- 1. Un modèle Functional API avec plusieurs couchesd’entrée
- 2. Un modèle Functional API avec plusieurs couchesde sortie
- 1. Monitorer un réseau de neurones
- a. Contrôler les critères d’arrêtavec les callbacks
- b. TensorBoard
- c. Sauvegarder un réseau de neurones
- d. Charger et utiliser un réseau de neurones
- a. Chargement des données locales
- b. Chargement du modèle VGG16
- c. Extraction des features
- d. Étendre un modèle
- e. Chargement des données de test pour le TransferLearning
Le Deep Learning avec OpenCV
- Objectif du chapitre
- Introduction à OpenCV
- 1. Qui utilise OpenCV ?
- 2. Exemples de cas d’utilisation d’OpenCV
- L'architecture d'OpenCV
- Installer et tester OpenCV
- Manipuler les images avec OpenCV
- 1. Charger une image
- 2. Capturer le flux d’une vidéo
- 3. Ajouter des objets dans une image
- 4. Ajouter des objets dans une vidéo
- 5. Gérer les clics de la souris sur une vidéo
- 6. Comprendre la structure d’une image
- 7. Modifier les pixels d’une image
- 8. Flouter une image
- La détection et la reconnaissance d'objets
- 1. La détection faciale sur une image
- 2. La détection faciale sur une vidéo
- 3. Traquer les mouvements
- 4. Détecter des objets avec YOLO
- Conclusion
Les réseaux de neurones antagonistes génératifs
- Objectif du chapitre
- Introduction au GAN
- 1. Comprendre les différents types de modèles d’IAgénérative
- 2. Définition et origine des GAN
- 3. Importance des GAN dans l’apprentissage profond
- 4. Les différents types de GAN
- 5. Quelques exemples de GAN
- 6. Avantages et inconvénients des GAN
- a. Avantages
- b. Inconvénients
- 1. Tester PyTorch dans Google Colab
- 2. Transformer une image en tensors
- 3. Appliquer des filtres sur les images
- a. Accentuer les bords dans une image
- b. Détecter des bords verticaux
- c. Détecter des bords horizontaux
- d. Appliquer un noyau gaussien
- e. Donner un effet de gravure à une image
- 1. Entraîner un modèle à rejeterles mauvaises images
- 2. Entraîner un modèle à accepterles images réalistes
- 1. Chargement des vraies images de référence
- 2. L’entrée du Generator ou le vecteur latent
- a. Pourquoi le vecteur latent est-il important ?
- b. Quel est l’effet de modifier la taille du vecteurlatent ?
Le traitement automatique du langage
- Objectif du chapitre
- NLP : concepts généraux
- 1. Le nettoyage des données textuelles
- a. Suppression des stopwords
- b. Appliquer le Stemming sur un texte
- c. Appliquer la Lemmatization sur un texte
- d. Stemming versus Lemmatization
- 1. Le nettoyage des données textuelles
- 2. Vectorisation des données textuelles
- a. La vectorisation par comptage d’occurrences des mots
- b. La vectorisation avec TF-IDF
- c. La vectorisation avec N-Gram
- d. Feature Engineering sur des documents
- 1. Installation de la NLTK
- 2. Modèle de détection de spams
Le prompt engineering
- Objectif du chapitre
- Le prompt engineering
- 1. Concepts généraux
- 2. Les tokens
- 3. Comment écrire un prompt efficace et précis ?
- Exemples de prompts
- 1. Les prompts simples et naïfs
- 2. Les prompts zero-shot
- 3. Les prompts few-shot
- 4. Les prompts Chain-of-Thought
- 5. Les prompts de type Generated-Knowledge-Prompting
- 6. Les prompts Directional-stimulus-prompting
- 7. Les prompts OPRO
- 8. Résoudre les problèmes de logiqueavec des prompts
- 9. Faire des résumés avec Chain-of-Density
- 10. Générer du code avec les LLM
- Conclusion
La programmation orientée objet avec Python
- Programmation orientée objet avec Python
- 1. Pourquoi la programmation orientée objet??
- 2. Classes et objets
- a. Définir une classe
- b. La fonction __init__
- c. Instanciation d’un objet
- d. Les attributs d’un objet
- e. Les méthodes d’objet
- f. Les attributs de classe
- g. Les méthodes de classe
- h. Les méthodes statiques
- i. Sécuriser les attributs
- 3. L’héritage
- a. L’héritage simple
- b. L’héritage multiple
- 4. Les classes abstraites
- 5. Les interfaces
- 6. Les méthodes spéciales
- a. Afficher un objet avec la fonction print()
- b. Personnaliser les accès aux attributs d’uneclasse
- c. Vérifier la validité d’un attribut
- d. Comparer deux objets
- e. Rendre les objets callable
- 1. Importer des modules
- 2. Le module principal
Très bon ouvrage pour commencer à approfondir !:
AnonymeEn cours de lecture, mais le début est sympa
eric gOuvrages volumineux écrits par de véritables experts dans la matière qu'ils enseignent : clairs, progressifs, exemples multiples qui rendent une compréhension parfaite de la matière enseignée
GERARD BMadjid KHICHANE
Madjid Khichane est un expert reconnu en Intelligence Artificielle, spécialisé dans l’apprentissage par renforcement et les systèmes multi-agents. Titulaire d’un diplôme d’ingénieur en Informatique de l’Université Mouloud Mammeri à Tizi-Ouzou (Algérie), il a poursuivi son parcours académique avec un Master en Intelligence Artificielle – Systèmes Multi-Agents à l’Université Paris 5 (René Descartes). Ses travaux de PhD en Intelligence Artificielle, menés en collaboration entre l’Université Claude Bernard Lyon 1 et IBM, ont abouti à des avancées algorithmiques en apprentissage par renforcement, publiées dans des conférences internationales de premier plan. Fort de cette expertise, Madjid Khichane accompagne aujourd’hui des leaders technologiques mondiaux tels que Microsoft, LinkedIn, Hewlett Packard, DXC Technology et PricewaterhouseCoopers (PwC) en tant qu’expert en IA, contribuant à l’innovation et à la transformation digitale à grande échelle.
















