Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
  1. Livres et vidéos
  2. Le Deep Learning pour le traitement d’images
  3. Intelligence artificielle responsable
Extrait - Le Deep Learning pour le traitement d’images Classification, détection et segmentation avec Python et TensorFlow
Extraits du livre
Le Deep Learning pour le traitement d’images Classification, détection et segmentation avec Python et TensorFlow
2 avis
Revenir à la page d'achat du livre

Intelligence artificielle responsable

But du chapitre et prérequis

Ces dernières années ont vu apparaître de nombreux modèles basés sur l’apprentissage profond. Ces modèles, s’ils ont apporté de nombreux avantages à la société dans plusieurs domaines (comme la médecine, l’agriculture, la traduction et la communication), ont également mis en avant les dangers potentiels de certaines applications, comme par exemple :

  • des applications perpétuant et amplifiant les inégalités

  • des vols de données personnelles utilisées pour entraîner des modèles

  • une consommation énergétique démesurée

L’intelligence artificielle responsable (responsible AI en anglais) est un ensemble de règles et de bonnes pratiques à respecter lors du développement d’un modèle pour s’assurer qu’il soit utile à la société.

Plusieurs groupes de réflexion ont commencé à s’intéresser à ce sujet.

Dans ce chapitre, nous allons décrire les critères retenus pour décréter qu’un modèle est responsable. Tous ne sont pas uniquement de la responsabilité des personnes qui développent les modèles ; au contraire, concevoir, développer et déployer un modèle d’intelligence...

Sept principes majeurs de l’IA responsable

L’impact de l’utilisation d’algorithmes basés sur l’intelligence artificielle est un sujet de préoccupation croissant. Plusieurs groupes de réflexion visant à définir des objectifs et de bonnes pratiques ont été créés à différentes échelles.

Ainsi, en Europe, la Commission européenne sur l’intelligence artificielle a été mise en place afin d’élaborer une stratégie commune pour le développement de modèles d’intelligence artificielle qui respectent les droits humains, la vie privée et la sécurité. Le travail de cette commission doit aboutir à la proposition d’un texte de loi, l’IA Act, qui encadrera les algorithmes d’intelligence artificielle mis sur le marché sur le sol européen à partir de 2025.

À l’échelle mondiale, l’UNESCO a rédigé en 2021 la Recommandation sur l’éthique de l’intelligence artificielle, un ensemble de près de 150 recommandations pour le développement et l’utilisation de modèles d’intelligence artificielle. Vous pouvez consulter ces recommandations à partir de l’adresse https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics.

Plusieurs acteurs privés...

Régulation officielle pour le futur proche

1. AI Act

L’Union européenne a fait le choix de réguler les produits basés sur l’intelligence artificielle à travers un règlement, l’IA Act.

Au moment de l’écriture de ce livre, l’AI Act est en cours de discussion. Le texte définitif devrait être mis en application par les entreprises à partir de 2025.

Dans ce projet de règlement, chaque produit fera face à des exigences réglementaires proportionnelles au niveau de risque que comporte son application.

2. Produits interdits

Tout d’abord, les produits dont l’application comporte un risque jugé « inacceptable » seront interdits. La liste des applications concernées est mise à jour régulièrement, et elle contient actuellement :

  • Les systèmes établissant une « note sociale », qui classifient les personnes selon leur fiabilité, par exemple, et peuvent conduire à « un traitement préjudiciable ou défavorable ».

  • Les systèmes d’identification biométrique à distance et en temps réel « dans des espaces accessibles au public à des fins répressives », y compris par les autorités. 

  • Les systèmes qui visent à manipuler...

Facteur humain et contrôle humain

Les modèles d’intelligence artificielle devraient aider les individus à prendre de meilleures décisions et à faire des choix éclairés en fonction de leurs objectifs. Ceci devrait être réalisé sans diminuer, restreindre ou manipuler, dévoyer leur autonomie. C’est ce que la Commission européenne appelle « une intelligence artificielle axée sur le facteur humain ».

Par ailleurs, le contrôle humain est indispensable pour éviter qu’un modèle ne provoque d’effets néfastes.

Les implications de cette première règle varient selon les applications précises. Cependant, d’une manière générale, nous pouvons en déduire les bonnes pratiques suivantes :

  • Avant de développer un modèle d’intelligence artificielle, il est impératif de se demander si ce modèle aidera ses utilisateurs à prendre de meilleures décisions. 

  • S’il y a des décisions importantes à prendre, elles devraient être prises, ou au moins validées, par un humain, comme par exemple le diagnostic fait à partir d’une image médicale.

  • Les résultats obtenus par le modèle d’intelligence artificielle doivent être présentés de manière à...

Robustesse technique et sécurité

Cette seconde règle comporte deux points.

1. Robustesse technique

Tout d’abord, les modèles doivent être performants tout au long de leur cycle de vie, et leurs résultats doivent être reproductibles.

Les bonnes pratiques présentées dans le chapitre Bonnes pratiques pour l’entraînement sont les premières étapes à suivre pour entraîner un modèle performant, fiable et reproductible.

Ensuite, les conseils fournis dans le chapitre Maintenance après déploiement du modèle vous aideront à vous assurer que le modèle continue de fournir des résultats fiables et précis tout au long de son utilisation.

2. Sécurité

Cette règle mentionne également la sécurité des modèles et affirme qu’ils doivent produire des résultats cohérents, même en présence de données corrompues (volontairement ou non), et résister à la fois aux attaques directes et aux tentatives de manipulation.

La sécurité des modèles d’apprentissage profond aux attaques est un domaine de recherche en plein essor, et dont l’exposé se situe au-delà du cadre de ce livre. Actuellement, toutes les solutions proposées ont pour effet de dégrader la performance du modèle, et aucune...

Respect de la vie privée et gouvernance des données

Il est indispensable de respecter les droits des utilisateurs à propos de leurs données : pour cela, il faut leur garantir la maîtrise totale de leurs données personnelles. Ces recommandations sont similaires à celles qui régissent le Règlement général sur la protection des données (RGPD).

De plus, les données utilisées pour entraîner un modèle d’apprentissage profond doivent répondre à des exigences élevées de qualité, et être fiables et exemptes de préjugés.

Pour cela, plusieurs bonnes pratiques ont déjà été décrites dans ce livre :

  • Les données d’entraînement, de validation et de test devraient refléter la variabilité de chaque classe.

  • Les étiquettes de chaque image devraient être vérifiées, si possible manuellement. Sinon, des techniques comme t-SNE, décrite dans le chapitre Ouvrir la boîte noire proposent une méthode automatique pour repérer les images dont l’étiquette est potentiellement erronée. 

  • Comme nous l’avons expliqué dans le chapitre Maintenance après déploiement du modèle, il est indispensable de surveiller les nouvelles images données au réseau...

Transparence

La transparence telle que préconisée par la Commission européenne s’applique à plusieurs niveaux.

Tout d’abord, les applications reposant sur des modèles d’intelligence artificielle doivent être identifiées en tant que telles auprès de leurs utilisateurs, et les personnes responsables de ces modèles clairement identifiées.

Ensuite, l’ensemble du processus de décision, depuis la collecte des données et leur annotation, le choix du modèle et son entraînement, doit être documenté. Cette documentation, décrite dans le chapitre Bonnes pratiques pour l’entraînement, participe également à la reproductibilité de l’entraînement du modèle.

De plus, les performances attendues du modèle, ainsi que ses limites, doivent être fournies aux utilisateurs. Pour cela, étant donné que les modèles de réseaux de neurones convolutionnels sont largement dépendants de leurs données d’entraînement, il est important de fournir aux utilisateurs une description des limitations de ces données. Par exemple, un modèle de détection d’animaux entraîné sur des photographies ne contenant qu’un unique animal pourra être très performant sur des photographies similaires, mais aura...

Diversité, non-discrimination et équité

Les modèles d’intelligence artificielle ne doivent pas être biaisés, ni au travers des données d’entraînement, ni via leur implémentation, ni par leurs applications. De plus, leur utilisation doit être accessible à tous.

Nous avons décrit dans le chapitre Bonnes pratiques pour l’entraînement comment limiter le biais dans les données d’entraînement : en faisant une analyse préliminaire des biais potentiels, il est possible de s’assurer que le jeu de données utilisé pour l’entraînement n’est pas biaisé.

Après le déploiement, il est capital de continuer à vérifier régulièrement que les prédictions ne sont pas biaisées (positivement ou négativement) pour un des groupes identifiés au cours de la première étape, comme il est décrit dans le chapitre Maintenance après déploiement du modèle.

Par ailleurs, pour réduire le risque de développer un modèle biaisé, il est indispensable de constituer une équipe la plus diversifiée possible, et représentant l’éventail des utilisateurs futurs du modèle. Vous pouvez également impliquer, dès la conception du modèle, ses futurs utilisateurs....

Bien-être sociétal et environnemental

Votre modèle d’intelligence artificielle devrait avoir un impact positif sur la société dans son ensemble, et pas uniquement sur les individus.

Pour cela, il est capital de réfléchir aux conséquences potentielles d’un modèle avant de le développer.

Reprenons l’exemple du modèle Speech2Face, mentionné dans le chapitre Intelligence artificielle et apprentissage profond, qui permet de générer une photographie d’une personne (avec un genre, un âge et une origine ethnique corrects) à partir d’un court enregistrement de sa voix. Les conséquences possibles d’un tel modèle pourraient avoir un impact très négatif sur la société : il pourrait être utilisé pour discriminer des candidats à l’embauche lors d’entretiens téléphoniques. Les images générées pourraient également être utilisées dans des actes de harcèlement en ligne.

Il est donc impératif de prendre en compte ces ramifications potentielles lors de la conception de votre modèle.

Quant au bien-être environnemental, l’entraînement et l’usage des modèles d’apprentissage profond ont un impact carbone important, et qui ne cesse de croître. Nous...

Responsabilisation

Cette règle comporte trois volets.

Tout d’abord, les individus et organisations impliqués dans le développement, le déploiement et l’utilisation du modèle doivent assumer la responsabilité des conséquences de ce modèle.

Ensuite, le modèle doit être vérifiable par une autorité extérieure. Les mesures prises pour la généralisabilité et la reproductibilité décrites dans le chapitre Bonnes pratiques pour l’entraînement permettent d’assurer un modèle fiable, et dont la fiabilité peut être prouvée à un interlocuteur extérieur.

Enfin, les effets négatifs potentiels du modèle doivent être identifiés, documentés et réduits au minimum : que pourrait-il se passer en cas d’erreur du modèle ? De mauvaise utilisation des résultats ? etc.

Conclusion

Dans ce chapitre, nous avons défini ce qui était considéré comme une intelligence artificielle responsable selon sept critères : le facteur humain, la robustesse, le respect de la vie privée et la gouvernance des données, la transparence, l’équité, le bien-être social et environnemental, et la responsabilisation.

Pour chacun d’entre eux, nous avons listé les bonnes pratiques permettant de respecter ces critères. Comme nous l’avons vu, la plupart de ces critères ont déjà été mentionnés plus tôt dans le livre. En effet, les critères d’une intelligence artificielle responsable rejoignent, pour beaucoup, les bonnes pratiques déjà mentionnées.