Les Valeursvaleurs de l’ IA forteIA forte

Les problématiques des valeurs reposent non seulement sur la difficulté à les traduire en une programmation pour l’IA mais également et surtout, sur celle de leur délimitation.

L’IA forte sera peut-être la dernière invention de l’humanité, peut-on laisser son programmeur biaiser l’algorithme ultime ?

Eliezer Yudkowsky élabore la thèse de l’intelligence artificielle « amicale ». Ainsi, il serait souhaitable de demander à l’IA d’être « amicale ». Pour cela, l’IA devra rechercher en continu en quoi consiste cette propriété abstraite et chercher à toujours agir de manière à respecter cette valeur. Afin d’éviter des erreurs catastrophiques, il serait possible pour le programmeur de donner des premiers indices à l’IA du type « Tromper le programmeur n’est pas amical »6. Le postulat du programmeur serait identifié comme tel et il serait confié à l’IA le soin de s’en départir quand elle s’apercevra que le programmeur a ses propres biais et que « l’amicalité » au sens le plus vrai nécessite de s’écarter des premiers axiomes de programmeurs.

Le problème est plus profond et plus large lorsque l’on souhaite déterminer au nom de l’humanité...

Pour consulter la suite, découvrez le livre suivant :
couv_DPEEJIA.png
60-signet.svg
En version papier
20-ecran_lettre.svg
En version numérique
41-logo_abonnement.svg
En illimité avec l'abonnement ENI
130-boutique.svg
Sur la boutique officielle ENI
Précédent
Le contrôle de l'IA forte
Suivant
Notes