1. Livres & vidéos
  2. Le deep learning avec TensorFlow/Keras
  3. Conclusion générale
Extrait - Le deep learning avec TensorFlow/Keras 42 programmes Python pour passer de la théorie à la pratique
Extraits du livre
Le deep learning avec TensorFlow/Keras 42 programmes Python pour passer de la théorie à la pratique Revenir à la page d'achat du livre

Conclusion générale

Rappel des objectifs de ce livre

Grâce à l’augmentation de la puissance de calcul et à la disponibilité de quantités massives de données, le deep learning a connu, ces dernières années, une très forte croissance. Cette technique repose sur l’utilisation de réseaux de neurones profonds capables d’ajuster leurs paramètres par apprentissage à partir de bases d’exemples.

Le framework TensorFlow/Keras est l’outil proposé par Google pour développer, entraîner et déployer ces modèles de deep learning. Il offre une interface de haut niveau (Keras) qui simplifie grandement la construction et l’expérimentation de réseaux de neurones, tout en s’appuyant sur l’infrastructure puissante de TensorFlow pour les calculs intensifs.

Cet ouvrage a été conçu pour permettre de découvrir puis de maîtriser ces outils extrêmement puissants. Le seul prérequis est la connaissance de la programmation en Python et quelques notions de base en mathématique.

Il a été écrit pour être accessible aux personnes n’ayant aucune connaissance ni en intelligence artificielle ni en deep learning. À chaque fois que cela a été nécessaire, les éléments théoriques sur les réseaux de neurones...

Introduction progressive des différentes notions

Les différentes notions ont été introduites de manière progressive, pour éviter de noyer le lecteur avec trop de nouvelles connaissances à assimiler simultanément. Chaque chapitre a couvert un périmètre bien défini, avec des exemples pour illustrer les sujets présentés et ainsi faciliter leur compréhension.

1. Chapitre Introduction à l’intelligence artificielle

Ce chapitre a servi d’introduction pour présenter le contexte général de l’intelligence artificielle. Les rappels historiques ont permis de situer le machine learning et le deep learning dans l’univers très vaste de l’IA.

Même si cette discipline est née au milieu du XXe siècle, c’est seulement maintenant qu’elle connaît un essor considérable avec des enjeux sociétaux et économiques susceptibles de transformer en profondeur notre société. C’est pourquoi, avant d’entrer dans les détails de la technique, le lecteur a été sensibilisé aux différentes opportunités ainsi qu’aux risques de cette discipline, notamment avec la présentation de l’AI Act européen, qui vise à réguler en Europe les usages de l’IA.

2. Chapitre Découverte des réseaux de neurones

Ce chapitre a détaillé le fonctionnement des réseaux de neurones, en particulier celui du perceptron multicouche. Pour en faciliter la compréhension, nous avons commencé par le Perceptron de Franck Rosenblatt, un modèle expérimental construit en 1958. Bien que plus simple que les réseaux actuels, il repose sur des principes identiques : un modèle numérique inspiré du cerveau apprend à reconnaître des formes en ajustant automatiquement ses paramètres à partir d’une base d’exemples.

Les différentes notions théoriques sur le fonctionnement du perceptron multicouche ont ensuite été progressivement introduites, en commençant par le neurone formel avec sa fonction d’activation. Nous avons ensuite abordé la construction d’un réseau organisé en couches et le calcul d’inférence...

Pour aller plus loin…

Maintenant c’est à vous de jouer ! Vous disposez de l’ensemble des connaissances nécessaires pour développer vos propres applications de deep learning avec TensorFlow/Keras.

Le meilleur conseil est de vous jeter à l’eau sans appréhension mais avec rigueur. Le deep learning est une discipline qui s’apprend par la pratique !

Si vous ne vous sentez pas encore complètement à l’aise, le mieux est de commencer avec les jeux de données détaillés à la fin du chapitre Analyse et amélioration des modèles. Ils sont chargés directement en mémoire, ce qui permet de se concentrer uniquement sur le codage des modèles, qu’il s’agisse d’architectures de perceptrons ou de réseaux à convolution.

Une fois plus en confiance, le plus simple est de choisir un jeu de données de classification sur Kaggle, et de se fixer comme objectif de développer un modèle pour l’exploiter. Pour y parvenir, il vous faudra passer par toutes les étapes du processus : l’exploration des données, le prétraitement, la construction du modèle, l’entraînement et finalement l’évaluation des performances. C’est en surmontant ces défis que vous apprendrez le mieux.

« On n’apprend...