Blog ENI : Toute la veille numérique !
🐠 -25€ dès 75€ 
+ 7 jours d'accès à la Bibliothèque Numérique ENI. Cliquez ici
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici

Conclusion : Demain, une IA forte

Introduction

« L’homme est une corde tendue entre l’animal et le surhomme, une corde au-dessus d’un Abîme. »

Nietzsche

Des siècles de progrès technologiques ont abondamment profité à l’humanité. Grâce aux avancées de la médecine et de l’agriculture, des centaines de millions de personnes, dans les pays développés, jouissent aujourd’hui d’un niveau de vie dont peu de gens auraient pu rêver dans le passé, avec une santé, une alimentation et une longévité excellente.

Nous possédons des appareils qui soulagent le fardeau des tâches quotidiennes, comme la cuisine, la lessive et le nettoyage.

Toutefois, l’humanité est confrontée à de nombreux défis mondiaux, comme le changement climatique, la diminution des combustibles fossiles, les conflits armés, la pauvreté généralisée et les maladies incurables (cancer et démence), les épidémies (la Covid 19).

Le meilleur espoir de résoudre ces problèmes passe assurément par le progrès scientifique et technologique.L’arrivée de l’intelligence artificielle en complément de l’intelligence humaine devrait permettre d’accélérer ce phénomène. En effet, si les commentateurs optimistes tels...

Le droit de l’IA est déjà une réalité

Le droit devra nécessairement accompagner ce mouvement. Toutefois, l’intelligence artificielle n’est pas un savoir stabilisé. Elle est, et restera pour un certain temps, encore, un savoir en construction, car elle est liée à l’évolution technologique et informatique. Dans ce contexte, le droit propose une alternative : puiser dans ses ressources, au risque de donner l’impression que la situation n’est pas où est insuffisamment réglementée.

En revanche, les choses sont plus complexes s’agissant de l’IA qu’aucune loi n’encadre encore précisément. Remarquons qu’en raison de la complexité des systèmes en développement, de l’auto-adaptation des algorithmes reposant sur le Deep learning et du nombre quasi infini de situations auxquelles l’IA peut être confrontée, le développeur de l’IA ne peut pas sérieusement s’engager en toutes circonstances sur le fonctionnement conforme de son système.

Il semble difficile également de reprocher au concepteur d’avoir oublié un cas particulier d’utilisation susceptible de prendre l’IA en défaut. En revanche, il sera toujours possible de lui faire grief de ne pas l’avoir assez testée.

Rendre l’IA explicable

Le besoin d’une IA de confiance, traçable, interprétable et auditable devient incontournable alors que celle-ci prend un nombre croissant de décisions affectant notre vie. L’éditeur d’un modèle algorithmique doit pouvoir expliquer comment, à partir des données qu’il a utilisées en entrée, il obtient le résultat en sortie. Il doit également être capable de retracer le processus de décision qui lui aura permis de déclencher une action.

Une réglementation pourrait par exemple imposer une boîte noire logique analysable a posteriori, voire une transparence a priori des processus décisionnels implémentés afin de vérifier le respect de certains grands principes (par exemple celui de la neutralité et du Privacy by design des traitements). Il convient de trouver un compromis entre performance et explicabilité.

images/P5-DP01.png

En définitive, l’intelligence artificielle est une discipline relativement jeune. Sa courte histoire est déjà marquée d’espoirs utopiques et de désillusions. Certes, si les progrès existent, force est de constater qu’ils sont souvent bien loin des capacités qu’on leur prête.

Aussi nous devons éviter le mélange des genres et nous rappeler que la complexité du cerveau humain...

Pour une IA complémentaire de l’humain

Il semble donc important de continuer les efforts de recherche dans ces domaines tant les applications sont diverses et stimulantes. Toutefois, une réflexion éthique, philosophique et juridique est cruciale. Nous devrions, en Occident, abandonner l’idée culturellement ancrée que les technologies sont faites pour remplacer l’homme alors qu’elles se révèlent complémentaires dans bien des domaines. Comme le souligne Joël de Rosnay : « Il faut avoir moins peur de l’intelligence artificielle que de la stupidité naturelle. »

images/P5-DP02.png

N’oublions pas non plus que l’origine du biais n’est jamais qu’humaine et que chaque correction est le résultat d’un jugement technique et culturel. Afin de parvenir à une meilleure acceptation de l’intelligence artificielle par la société, nous devons être garantis que les systèmes utilisés sont sûrs et sécurisés. Finalement, pour inspirer confiance, les éditeurs d’IA doivent la rendre redevable et responsable.

Une IA forte

La croissance exponentielle des capacités informatiques selon les lois de Moore a permis aux ordinateurs de rivaliser avec l’homme sur des tâches précises en quelques années seulement. Les transistors se font de plus en plus petits, de plus en plus nombreux, de moins en moins coûteux en matériaux comme en énergie, à tel point que beaucoup de scientifiques sont aujourd’hui convaincus de l’émergence prochaine d’une superintelligence qui rivaliserait avec l’homme (N. Bostrom, Superintelligence, Avant-Propos, 2014 (trad. 2017)).

images/P4-03DP01.png

Potentiellement consciente d’elle-même, peut-être à même d’éprouver des sentiments, mais en tout cas simulant l’intelligence humaine dans toutes ses activités, les principales craintes quant à l’émergence de cette intelligence artificielle forte sont liées à son support même.

Dénuée d’enveloppe physique biologique, une telle intelligence ne serait limitée que par la puissance de calcul à sa disposition, faisant coïncider l’apparition de la première IA forte avec la singularité technologique.

La singularité technologique repose sur un postulat simple : à partir du moment où l’être humain, l’intelligence biologique normale, est parvenu à...

La personnalité juridique de l’IA forte

Outre le débat concernant la personnalité juridique de l’IA forte au sens de la personnalité des personnes morales, disposant d’un patrimoine pour indemniser les dommages qu’elles causent, certains auteurs ont suggéré qu’il pourrait être souhaitable de doter l’IA forte d’une personnalité juridique d’un nouveau type, plus proche de celle des personnes physiques que des personnes morales.

Les arguments à la faveur de cette proposition seraient notamment l’autonomie décisionnelle, la capacité à ressentir des émotions et la conscience d’elle même dont disposerait une IA forte qui nécessiterait que lui soit reconnu un droit à la dignité.

La dignité est un concept juridique protéiforme qui implique notamment qu’une personne humaine ne puisse jamais être instrumentalisée, utilisée comme un animal ou un objet1.

Cependant, la dignité ne repose pas tant sur l’autonomie du sujet que sur sa seule condition humaine puisqu’une personne incapable, par exemple du fait d’un coma, n’en reste pas moins une personne humaine titulaire de la personnalité juridique et d’un droit à la dignité, et qu’inversement, un animal intelligent dispose d’une autonomie sans pour autant se voir...

Le contrôle de l’IA forte

La problématique du contrôle est notamment exposée par Nick Bostrom, professeur de philosophie et directeur de l’Institut pour le futur de l’humanité à l’université d’Oxford.

Dans Superintelligence (2014), ce philosophe propose une expérience de pensée. Imaginons que la première intelligence artificielle apparaisse alors qu’une multinationale a cherché l’amélioration maximale de sa production de trombones.

L’IA est ainsi programmée à produire le plus de trombones possible.

Face à cet objectif illimité et sans système de contrôle autre que la réalisation du but qui lui a été confié, l’IA qui souhaite l’atteindre n’aura d’autre choix que de produire des trombones jusqu’à l’épuisement de toutes les ressources à sa disposition, menant potentiellement l’humanité à son extinction avec celle de la planète.

Cette hypothèse avait également été exposée par Marvin Minsky, cofondateur du laboratoire d’IA du MIT, ayant suggéré que n’importe quel problème théorique illimité dont la résolution serait confiée à une IA aboutirait à transformer la Terre en un super ordinateur...

Les valeurs de l’IA forte

Les problématiques des valeurs reposent non seulement sur la difficulté à les traduire en une programmation pour l’IA mais également et surtout, sur celle de leur délimitation.

L’IA forte sera peut-être la dernière invention de l’humanité, peut-on laisser son programmeur biaiser l’algorithme ultime ?

Eliezer Yudkowsky élabore la thèse de l’intelligence artificielle « amicale ». Ainsi, il serait souhaitable de demander à l’IA d’être « amicale ». Pour cela, l’IA devra rechercher en continu en quoi consiste cette propriété abstraite et chercher à toujours agir de manière à respecter cette valeur. Afin d’éviter des erreurs catastrophiques, il serait possible pour le programmeur de donner des premiers indices à l’IA du type « Tromper le programmeur n’est pas amical »6. Le postulat du programmeur serait identifié comme tel et il serait confié à l’IA le soin de s’en départir quand elle s’apercevra que le programmeur a ses propres biais et que « l’amicalité » au sens le plus vrai nécessite de s’écarter des premiers axiomes de programmeurs.

Le problème est plus profond et plus large lorsque l’on souhaite déterminer au nom de l’humanité quelle est la valeur ultime et s’il s’agit réellement de l’amicalité. 

Plusieurs thèses sont plausibles, toutes nécessitent d’importantes...

Notes

1 M. Fabre-Magnan, « La dignité en Droit : un axiome », Revue interdisciplinaire d’études juridiques, vol. 58, § 66, 2007

2 M. Bouteille-Brigant, Actu-Juridique.fr, « Intelligence artificielle et droit : entre tentation d’une personne juridique du troisième type et avènement d’un « transjuridisme » », 27 mars 2018

3 G. Loiseau, « La personnalité juridique des robots : une monstruosité juridique », Semaine juridique édition générale, n° 22, 28 mai 2018

4 E. Kant, Fondements de la métaphysique des mœurs, 1785

5 G. W. F. Hegel, Principes de la philosophie du droit, 1821

6 N. Bostrom, expliquant E. Yudkowsky, in Superintelligence, 2014

7 E. Yudkowsky, Coherent Extrapolated Volition. The Singularity Institute, San Francisco, CA, 2004

8 Isaac Asimov (1920-1992), Le cycle des robots, 1950-1985

9 A. Orsini, Numerama, Les « 23 principes d’Asilomar » veulent encadrer le développement de l’intelligence artificielle, 1er février 2017

10 J. Baudron, Usbek&Rica, L’intelligence artificielle faible n’enfantera pas l’IA forte, 2018