Les Valeursvaleurs de l’ IA forteIA forte

Les problématiques des valeurs reposent non seulement sur la difficulté à les traduire en une programmation pour l’IA mais également et surtout, sur celle de leur délimitation.

L’IA forte sera peut-être la dernière invention de l’humanité, peut-on laisser son programmeur biaiser l’algorithme ultime ?

Eliezer Yudkowsky élabore la thèse de l’intelligence artificielle « amicale ». Ainsi, il serait souhaitable de demander à l’IA d’être « amicale ». Pour cela, l’IA devra rechercher en continu en quoi consiste cette propriété abstraite et chercher à toujours agir de manière à respecter cette valeur. Afin d’éviter des erreurs catastrophiques, il serait possible pour le programmeur de donner des premiers indices à l’IA du type « Tromper le programmeur n’est pas amical »6. Le postulat du programmeur serait identifié comme tel et il serait confié à l’IA le soin de s’en départir quand elle s’apercevra que le programmeur a ses propres biais et que « l’amicalité » au sens le plus vrai nécessite de s’écarter des premiers axiomes de programmeurs.

Le problème est plus profond et plus large lorsque l’on souhaite déterminer au nom de l’humanité...

couv_DPEEJIA.png

Découvrez 

le livre :

Aussi inclus dans nos :

Précédent
Le contrôle de l'IA forte
Suivant
Notes