Expliquer à quoi sert l’IA : le plus grand défi?

Type de publication
Intelligence artificielle
Date

​Imaginez la situation : vous avez demandé un prêt susceptible de changer votre vie et attendez une réponse de la banque.

Ce peut être un prêt hypothécaire qui vous permettra d’acheter la maison de vos rêves pour votre petite famille, ou un prêt commercial pour enfin réaliser vos ambitions d’entrepreneur.

Vous recevez finalement l’appel tant attendu : le prêt vous est refusé.

La déception est vive.

« Mais pourquoi donc? », demandez-vous à la personne à l’autre bout du fil.

« Aucune idée, répond-elle. Bien franchement, c’est super compliqué. »

Trouveriez-vous cette explication satisfaisante?

Explicabilité et réglementation de l’intelligence artificielle (IA)

Une banque aurait bien sûr une meilleure réponse à vous donner (une plus polie aussi), parce qu’elle comprend mieux son processus d’approbation.

Une question vient cependant nous interpeller : considérant l’utilisation par le secteur financier, aujourd’hui et dans les années à venir, de systèmes d’IA appelés à se complexifier de manière exponentielle, quelles sont les informations qui doivent être accessibles et explicables aux clients et aux organismes de réglementation?

Voilà un exemple de ce dont a discuté un prestigieux groupe d’experts de l’IA provenant des services financiers, du secteur public et du milieu universitaire, lors d’ateliers tenus dans le cadre du Forum sur l’intelligence artificielle dans le secteur des services financiers (FIASSF).

Les différents échanges et le rapport qui en a découlé se sont articulés autour de quatre principes clés qui orientent l’utilisation et la réglementation de l’IA dans le secteur financier :

  • E – Explicabilité
  • D – Données
  • G – Gouvernance
  • E – Éthique

Dans cette série d’articles – qui commence avec l’explicabilité –, nous examinerons de près chacun de ces thèmes ainsi que les enseignements à en tirer et leur application à la recherche et aux activités dans le domaine réglementaire.

À noter que le contenu de cet article et du rapport sur l’IA reflète les points de vue et les idées des conférenciers et des participants du FIASSF et ne doit pas être considéré comme étant représentatif de l’opinion des organismes auxquels ceux-ci appartiennent, y compris le Bureau du surintendant des institutions financières (BSIF) et l’Institut du risque mondial (IRM).

De plus, le contenu de cet article et du rapport ne doit pas être interprété comme des directives du BSIF ou de tout autre organisme de réglementation, maintenant et dans l’avenir.

Expliquer l’explicabilité

Qu’entendons-nous par « explicabilité » dans le contexte de l’IA?

Avant toute chose, l’explicabilité permet aux institutions financières de renforcer la relation de confiance avec leurs clients.

Lorsque ceux-ci comprennent le raisonnement qui guide une décision, ils sont plus à même de travailler vers l’atteinte de leurs objectifs financiers.

Ça, c’est la théorie. En pratique, c’est plus compliqué.

En effet, expliquer le processus des modèles d’IA est loin d’être simple; il s’agit d’ailleurs de l’un des enjeux les plus importants et persistants associés à l’utilisation des techniques d’IA.

En l’absence d’explicabilité, il est difficile d’analyser la théorie, les données, la méthodologie et d’autres aspects fondamentaux d’une approche, ainsi que de confirmer que le modèle est adapté à l’utilisation prévue et de vérifier sa performance.

Comme l’a affirmé Alexander Wong, professeur et titulaire d’une chaire de recherche du Canada à l’Université de Waterloo, « l’explicabilité permet notamment de s’assurer que la bonne décision est prise pour les bonnes raisons ».

Les discussions autour de ces enjeux ont amené les participants à aborder cinq grandes questions :

  • Quels sont les degrés d’explicabilité possibles des systèmes d’IA?
  • Quels facteurs permettent de déterminer le degré approprié d’explicabilité d’une application particulière?
  • Quelles sont les approches à adopter pour parvenir à l’explicabilité et quels sont les risques associés?
  • Comment l’explicabilité est-elle liée au concept plus général de transparence?
  • Quel est le rôle de l’explicabilité dans l’établissement d’une relation de confiance?

Qui doit savoir quoi, et quand

Un point important a été relevé : le degré d’explicabilité requis pour un modèle doit être pris en considération dès le début du processus de sélection et de conception de ce modèle et être établi en fonction du cas d’utilisation et du cadre de gouvernance.

« Le degré d’explicabilité exigé par une personne qui effectue l’examen indépendant rigoureux d’une approche peut être différent de l’explication fournie à un consommateur pour lui expliquer qu’on ne lui accorde pas de crédit », a précisé David Palmer, de la Réserve fédérale américaine.

Le rapport du FIASSF contient plusieurs exemples d’application de cette notion et de divers emplois de l’explicabilité :

  • Servir aux experts en science des données pour faciliter le débogage et permettre un meilleur repérage des moyens d’améliorer la performance et la robustesse des modèles d’IA
  • Aider un propriétaire d’entreprise à comprendre et à mieux gérer les risques découlant de l’utilisation d’outils d’IA en plus d’aider les organismes de réglementation à certifier la conformité
  • Permettre de fournir aux clients de meilleures explications pour qu’ils comprennent une décision
  • Préciser les modifications que les clients peuvent apporter à leurs comportements pour influencer les décisions futures

L’étape suivante consiste à déterminer le degré adéquat d’explicabilité.

Degrés d’explicabilité

Comme le relève le rapport du FIASSF, « les différents degrés d’explicabilité reflètent notre compréhension du fonctionnement d’un modèle pour arriver à des résultats ».

Cette affirmation s’applique autant aux explications locales (comprendre une décision donnée) qu’aux explications globales (comprendre un modèle d’IA).

Les modèles entièrement transparents ont un degré d’explicabilité élevé comparativement aux modèles moins transparents dont le degré d’explicabilité est faible.

Il ne faut toutefois pas en conclure qu’il est impossible de comprendre des systèmes très complexes. En effet, on peut toujours arriver à expliquer les résultats des modèles dont le degré d’explicabilité est faible grâce à des techniques d’analyse post-hoc.

Les participants au forum ont tous convenu que le degré adéquat d’explicabilité dépend de plusieurs facteurs, notamment :

  1. Que faut-il expliquer?
  2. À qui faut-il fournir une explication? Le degré d’explication varie en fonction du destinataire (expert en science des données, propriétaire d’entreprise, organisme de réglementation, client).
  3. Est-ce qu’il s’agit d’un cas d’utilisation de grande importance? Par exemple, le besoin d’explications est moins important pour les robots conversationnels qui reposent sur l’IA que pour les modèles d’IA qui servent à rendre des décisions sur le crédit.
  4. Quelle est la complexité du modèle? Des modèles extrêmement complexes pourraient être inappropriés dans certains cas d’utilisation.

Munies des réponses à ces questions, les institutions sont en mesure d’atteindre l’objectif très important qu’elles poursuivent : l’établissement d’un climat de confiance.

Explicabilité et confiance

Pour bâtir une relation de confiance, il faut considérer plusieurs facteurs.

Une simple compréhension du fonctionnement d’un modèle n’est pas toujours un gage de confiance suffisant, car d’autres aspects entrent en jeu, comme la précision et l’absence de biais.

D’ailleurs, comment peut-on quantifier la confiance?

« La confiance est vraiment difficile à évaluer, mais sa perte est on ne peut plus clair​e », a lancé Stuart Davis, vice-président à la direction, Gestion du risque de crimes financiers à la Banque Scotia.

Le rapport résume ainsi les relations qu’on observe entre l’IA et la confiance :

L’explicabilité, accompagnée du bon niveau de communication (au bon public), est l’un des nombreux facteurs qui contribuent à établir la confiance entre une institution financière et ses clients.

Inévitablement, une confiance accrue dans l’IA permet d’en étendre les limites d’utilisation et de continuer d’innover.

Pour un examen plus exhaustif de l’explicabilité et des autres thèmes abordés par les participants au forum, consultez le rapport complet du FIASSF (PDF, 5,29 Mo).