Introduction

Généralement, lorsqu’une personne est reconnue comme responsable et coupable, une sanction lui est infligée pour la châtier, la dissuader de recommencer et tenter de corriger son comportement.

images/P2-03DP01.png

Une vision plus radicale consisterait à débrancher ou encore désactiver l’IA. Mais si l’IA est dotée d’une personnalité juridique, il existe un faible courant en ce sens, elle serait alors titulaire de droits et on ne pourrait impunément la « tuer » ou la « martyriser ». En outre, peut-elle se réformer ? Une sanction aurait-elle valeur d’exemple pour ses analogues ? Et pourquoi répéter chaque fois la même solution ? Une ligne de code, un nouveau script ne serait-il pas suffisant1 pour purger ses anomalies ?

À supposer que l’on puisse condamner une IA comme auteur d’une infraction : comment alors la punir ? Doit-on lui prescrire des peines similaires à celles infligées aux humains ? Cela a t-il un sens ? La privation de liberté est-elle une solution adaptée pour une machine intelligente ?

Depuis quelques années, l’intelligence artificielle devient un acteur important dans la prévention de la commission d’infractions. L’intelligence artificielle intervient par exemple dans la modération des contenus choquants sur les réseaux sociaux, ou encore afin d’assister...

Pour consulter la suite, découvrez le livre suivant :
couv_DPEEJIA.png
60-signet.svg
En version papier
20-ecran_lettre.svg
En version numérique
41-logo_abonnement.svg
En illimité avec l'abonnement ENI
130-boutique.svg
Sur la boutique officielle ENI
Précédent
Les systèmes d’IA autorisés
Suivant
Atteintes aux personnes