Le contrôle de l’ IA forteIA forte

La problématique du contrôle est notamment exposée par Nick Bostrom, professeur de philosophie et directeur de l’Institut pour le futur de l’humanité à l’université d’Oxford.

Dans Superintelligence (2014), ce philosophe propose une expérience de pensée. Imaginons que la première intelligence artificielle apparaisse alors qu’une multinationale a cherché l’amélioration maximale de sa production de trombones.

L’IA est ainsi programmée à produire le plus de trombones possible.

Face à cet objectif illimité et sans système de contrôle autre que la réalisation du but qui lui a été confié, l’IA qui souhaite l’atteindre n’aura d’autre choix que de produire des trombones jusqu’à l’épuisement de toutes les ressources à sa disposition, menant potentiellement l’humanité à son extinction avec celle de la planète.

Cette hypothèse avait également été exposée par Marvin Minsky, cofondateur du laboratoire d’IA du MIT, ayant suggéré que n’importe quel problème théorique illimité dont la résolution serait confiée à une IA aboutirait à transformer la Terre en un super ordinateur afin d’être certaine de parvenir à sa résolution.

Concernant...

couv_DPEEJIA.png

Découvrez 

le livre :

Aussi inclus dans nos :

Précédent
La personnalité juridique de l'IA forte
Suivant
Les valeurs de l'IA forte