Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
Black Friday: -25€ dès 75€ sur les livres en ligne, vidéos... avec le code BWEEK25. J'en profite !
  1. Livres et vidéos
  2. Intelligence artificielle vulgarisée
  3. Vous avez dit intelligence artificielle ?
Extrait - Intelligence artificielle vulgarisée Le Machine Learning et le Deep Learning par la pratique
Extraits du livre
Intelligence artificielle vulgarisée Le Machine Learning et le Deep Learning par la pratique
2 avis
Revenir à la page d'achat du livre

Vous avez dit intelligence artificielle ?

Ce que nous allons découvrir et les prérequis

Dans ce chapitre, nous allons dans un premier temps découvrir l’historique de l’intelligence artificielle en retraçant les dates et périodes clés de son développement et nous rendre compte que contrairement à ce que l’on peut croire, ce n’est pas une science nouvelle. Nous nous pencherons ensuite quelques instants sur ce qu’est réellement l’intelligence artificielle et les peurs qu’elle suscite pour terminer sur la possibilité de réaliser une intelligence artificielle chez soi.

Prérequis nécessaires pour bien aborder ce chapitre : aucun.

L’intelligence artificielle, ce n’est pas nouveau !

Lorsque l’on pose la question aux plus jeunes quant à la date de naissance de l’intelligence artificielle, beaucoup indiquent les années 2000, mais il n’en est rien !

C’est lors de l’été 1956 qu’à vu officiellement le jour l’intelligence artificielle au Dartmouth College (New Hampshire, États-Unis) lors d’une université d’été (du 18 juin au 17 août) organisée par John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon.

Selon ces quatre personnes, la nouvelle discipline académique qu’est l’intelligence artificielle suppose que toutes les fonctions cognitives humaines peuvent être décrites de façon très précise pouvant alors donner lieu à une reproduction de celles-ci sur ordinateur.

Il serait alors possible de créer des systèmes capables d’apprendre, de calculer, de mémoriser, et pourquoi pas de réaliser des découvertes scientifiques ou encore de la créativité artistique !

Mais 1956 est la date de reconnaissance de l’intelligence artificielle en tant que science. Les travaux sur ce sujet ayant débuté bien avant. Nous pouvons remonter dans les années 1940 à 1950 où l’on parlait alors de cybernétique...

Quelques dates et périodes clés

L’intelligence artificielle n’est donc pas un concept nouveau et a connu depuis les années 50 des phases d’essor et de ralentissements. Voici quelques dates clés et périodes de cette science :

1943 : publication par Warren Mc Culloch (États-Unis) et Walter Pits (États-Unis) d’un article fondateur sur le neurone formel.

1950 : évaluation de l’intelligence d’une machine par le test de Turing conçu par Alan Turing (Angleterre).

1951 : premier programme d’intelligence artificielle réalisé par Christopher Strachey (Angleterre) et Dietrich Prinz (Allemagne) sur un Ferranti Mark 1. Ce premier programme permettait de jouer aux dames contre une machine.

1951 : construction de la machine SNARC (Stochastic Neural Analog Reinforcement Calculator) par Marvin Minsky (États-Unis) réalisant, physiquement, avec des tubes à vide, des réseaux de neurones formels capables d’apprendre automatiquement les poids synaptiques en s’inspirant des principes dégagés par Donald Hebb (Psychologue et neuropsychologue).

1956 : l’intelligence artificielle est reconnue comme discipline académique.

1957 : proposition par Franck Rosenblatt (États-Unis) du premier réseau de neurones à couches appelé la perceptron.

1965 : naissance...

Mais qu’est-ce que l’intelligence artificielle ?

Comme nous venons de le voir, l’intelligence artificielle n’est pas une science nouvelle. Cependant, qui peut affirmer avoir vu une intelligence artificielle ? Personne ! Elle est inaudible, inodore et invisible. Les robots, les voitures autonomes ne sont pas ce que l’on peut appeler des intelligences artificielles, ce sont des machines utilisant de cette intelligence.

Comme vous avez sans doute dû le constater ou aurez l’occasion de le faire en lisant cet ouvrage, l’intelligence artificielle n’est autre qu’une série de formules mathématiques donnant naissance à des algorithmes ayant des noms plus étranges les uns des autres. Nous parlons alors de probabilités, de statistiques qui n’ont rien d’intelligent au sens où nous pouvons la qualifier pour les êtres humains.

L’intelligence artificielle se décline en deux parties. La première est le Machine Learning, se basant sur l’utilisation des statistiques pour donner la faculté aux machines "d’apprendre", quant à la seconde partie appelée Deep Learning (apprentissage profond), il s’agit d’algorithmes capables de s’améliorer de façon autonome grâce des modélisations telles que les réseaux de neurones inspirés du fonctionnement du cerveau...

Intelligence artificielle, Machine Learning et Deep Learning

Nous allons à présent nous attarder quelques instants sur la définition des termes autour de l’intelligence artificielle, à savoir le Machine Learning et le Deep Learning car leur sens est parfois mal compris, voire confondu.

L’intelligence artificielle est à notre sens un mot valise défini par Marvin Minsky comme étant une science dont le but est de faire réaliser par une machine des tâches que l’Homme accomplit en utilisant son intelligence.

Pour y parvenir, nous avons besoin d’apprendre à notre machine comment réaliser ces tâches par le biais d’algorithmes conçus à partir de modèles statistiques. C’est ce que l’on appelle le Machine Learning.

Le Deep Learning est quant à lui une branche du Machine Learning s’appuyant sur l’usage de neurones artificiels s’inspirant du cerveau humain. Ces neurones sont organisés en couches donnant alors une notion de profondeur (deep) au réseau de neurones.

Par conséquent, lorsque nous parlons d’intelligence artificielle, il est préférable de parler de Machine Learning ou de Deep Learning.

images/02LF02.png

Intelligence artificielle, Machine Learning et Deep Learning

Les différents types d’apprentissage

Une machine est capable d’apprendre selon trois formes d’apprentissage. Le premier est l’apprentissage dit supervisé. C’est-à-dire que la machine va apprendre à partir de données labellisées par l’être humain. Dans le cas de reconnaissance d’image entre un chat ou un chien, pour chaque image utilisée dans l’apprentissage nous devons indiquer à la machine s’il s’agit d’un chat ou d’un chien. Cette indication s’appelle une labellisation.

Vient ensuite l’apprentissage non supervisé. Dans ce cas, la machine va apprendre par elle-même. Mais le terme d’apprentissage autonome reste très relatif. Comme nous le verrons, la machine est capable de faire des regroupements et donc de réaliser des classifications, cependant elle n’est pas capable de définir par elle-même les différents libellés, car elle n’a pas conscience des données dont elle a la charge d’en faire l’apprentissage.

Enfin, il existe l’apprentissage par renforcement, consistant pour une machine à apprendre par l’expérience et étant récompensé de façon positive ou négative en fonction des décisions prises.

Dans cet ouvrage, nous ne traiterons que les cas des apprentissages supervisés...

L’intelligence artificielle fait peur

Les paragraphes qui vont suivre ont pour but de mettre à jour les différentes questions et remarques concernant l’intelligence artificielle et les peurs qu’elle engendre.

Nous vous laissons libre de toute pensée et opinion sur ces différents domaines. 

1. La singularité technologique

Les innovations technologiques se développent à un rythme exponentiel (loi de Moore) et les innovations d’un domaine sont source d’innovation d’un autre domaine. Partant de constat, Raymond Kurzweil (États-Unis) établit que cet enrichissement réciproque allié à la technologie pourrait donner naissance à une "Super intelligence" plus intelligente que l’Homme, et ce dès 2045. Cette super intelligence est appelée "Singularité technologique", car il nous serait alors impossible de prédire ce qui va se passer ensuite. Cette singularité sera-t-elle l’alliée ou ennemie de l’être humain ? Les deux versions s’opposent aujourd’hui, l’une indiquant que cela permettrait à l’être humain d’améliorer son confort de vie (soins des maladies graves…), et l’autre indiquant que cela pourrait entraîner la destruction de l’humanité (Robot destructeur, arme intelligente…).

2. Des emplois menacés

Là où l’automatisation ne touchait que les emplois à faible valeur ajoutée, l’intelligence...

Créer une intelligence artificielle chez soi c’est possible !

Créer une intelligence artificielle nécessite des compétences scientifiques, mais aussi des moyens technologiques. Là où il y a encore quelques années il fallait disposer de solides notions en mathématiques et une machine puissante pour concevoir et développer une intelligence artificielle, aujourd’hui nous disposons d’outils et de matériels capables de minimiser ces prérequis.

En effet, il est aujourd’hui possible de réaliser l’apprentissage d’une machine sur un simple ordinateur portable tout en utilisant des modules d’intelligence artificielle contenant le code informatique et les fonctions mathématiques nécessaires ! Néanmoins, cela nécessite tout de même une légère prise en main à la fois des langages de programmation et des concepts mathématiques de l’intelligence artificielle dans le but d’éviter l’effet boîte noire que nous évoquions auparavant. Nous sommes donc sans doute dans une phase de démocratisation de l’usage de l’intelligence artificielle au sein des logiciels. Les développeurs de demain devront sans doute faire figurer sur leur CV leur aptitude à utiliser les différents outils liés à l’intelligence artificielle....