Le contrôle de l’ IA forteIA forte

La problématique du contrôle est notamment exposée par Nick Bostrom, professeur de philosophie et directeur de l’Institut pour le futur de l’humanité à l’université d’Oxford.

Dans Superintelligence (2014), ce philosophe propose une expérience de pensée. Imaginons que la première intelligence artificielle apparaisse alors qu’une multinationale a cherché l’amélioration maximale de sa production de trombones.

L’IA est ainsi programmée à produire le plus de trombones possible.

Face à cet objectif illimité et sans système de contrôle autre que la réalisation du but qui lui a été confié, l’IA qui souhaite l’atteindre n’aura d’autre choix que de produire des trombones jusqu’à l’épuisement de toutes les ressources à sa disposition, menant potentiellement l’humanité à son extinction avec celle de la planète.

Cette hypothèse avait également été exposée par Marvin Minsky, cofondateur du laboratoire d’IA du MIT, ayant suggéré que n’importe quel problème théorique illimité dont la résolution serait confiée à une IA aboutirait à transformer la Terre en un super ordinateur afin d’être certaine de parvenir à sa résolution.

Concernant...

Pour consulter la suite, découvrez le livre suivant :
couv_DPEEJIA.png
60-signet.svg
En version papier
20-ecran_lettre.svg
En version numérique
41-logo_abonnement.svg
En illimité avec l'abonnement ENI
130-boutique.svg
Sur la boutique officielle ENI
Précédent
La personnalité juridique de l'IA forte
Suivant
Les valeurs de l'IA forte