Les enjeux éthiques de l'intelligence artificielle en finance et en assurance
L’intégration de l’IA aux domaines de la finance et des assurances laisse entrevoir des possibilités d’applications prometteuses. Cependant, l’utilisation de l’IA soulève aussi des enjeux éthiques. Une compréhension de ces enjeux permettra de mieux planifier l’implantation de technologies basées sur l’IA.
Voici les principaux enjeux éthiques posés par l’IA et quelques pistes à explorer pour tenter d’y répondre.
Limiter les pertes d’emplois et réorganiser le travail
Grâce à sa puissance, l’IA peut automatiser une certaine partie des opérations dans les domaines de la finance et des assurances. Mentionnons, notamment, des tâches comme :
- le traitement de documents (p. ex. des chèques) ;
- l’analyse de réclamations ;
- l’optimisation de placements et d’investissements ;
- l’amélioration de l’expérience client ;
- l’automatisation de certains processus ;
- la prévention de la fraude.
Cette optimisation du travail peut ainsi se traduire par une réduction du nombre de postes requis pour atteindre une productivité équivalente ou supérieure.
L’utilisation de l’IA peut aussi favoriser une concentration des activités dans les sièges sociaux, ce qui peut entraîner la suppression d’emplois auxiliaires (p. ex. soutien administratif) dans certains centres.
Cependant, la plupart des tâches qui peuvent être effectuées par l’IA nécessitent une supervision humaine. L’IA peut donc être vue comme un soutien et une valeur ajoutée au travail du personnel déjà présent.
Il est ainsi possible d’implanter l’IA sans que l’adoption de cette technologie soit forcément synonyme d’une perte significative d’emplois. Une réorganisation du travail ainsi que des formations pour mettre les connaissances à niveau peuvent faciliter la transition.
L’intégration de l’IA peut aussi mener à la création de nouveaux emplois dans des postes qui n’existaient pas auparavant. Par exemple, une équipe de formation pourrait être constituée pour expliquer les avantages que procure l’IA dans les services offerts. Ces formations pourraient être offertes tant à la clientèle qu’au personnel de l’entreprise.
Assurer la cybersécurité
Les données utilisées par l’IA dans les secteurs de la finance et des assurances sont souvent très personnelles, comme :
- la cote de crédit ;
- le statut d’emploi et le revenu ;
- l’état de santé.
Les données peuvent aussi être de nature plus commerciale (p. ex. le rendement d’une entreprise). La grande valeur de ces informations attire la convoitise des pirates informatiques. Ces derniers emploient des techniques de plus en plus sophistiquées pour s’emparer de ces données ou pour en bloquer l’accès. Lorsqu’ils parviennent à leurs fins, les pirates réclament souvent le paiement d’une rançon en échange du contrôle des données.
Ces cyberattaques présentent un risque pour la réputation des organisations. Une attaque réussie peut provoquer une baisse de confiance chez la clientèle, ce qui peut avoir des conséquences négatives sur la santé financière de l’entreprise.
Ainsi, il est prudent d’analyser les risques associés à la sécurité et à la gouvernance des données utilisées ainsi que ceux liés à l’environnement informatique. Cette analyse permettra la mise en place de solutions pour pallier les failles identifiées. Les initiatives prises pour apporter des solutions nécessiteront des mises à jour fréquentes pour assurer une protection continue.
Les méthodes d’identification méritent une attention particulière. Par exemple, certaines technologies ont été conçues pour imiter le timbre de la voix d’une personne en particulier. Ces fausses voix arrivent parfois à confondre les systèmes d’identification basés sur la reconnaissance vocale. Dans ce cas-ci, le recours à la double authentification est une mesure à envisager.
Préserver la transparence des données, la responsabilité et l’imputabilité humaine
Bien qu’elle soit très puissante, l’IA ne garantit pas une absence complète de fautes ou de biais. Le recours à ce genre de technologie demande donc une certaine vigilance humaine.
Prenons le cas d’un système d’IA qui croit détecter, par erreur, des activités suspectes liées à un compte. Le système pourrait alors choisir de bloquer ce compte automatiquement. Pourtant, ces activités, bien qu’inhabituelles, pourraient tout à fait être légitimes. Il devient difficile de trouver les causes de cette erreur si personne n’a participé à la prise de décision. Il est également plus délicat d’identifier qui est imputable de cette décision.
Ainsi, l’implication d’êtres humains dans le processus décisionnel garantit l’imputabilité des actions posées. La participation humaine permet aussi de préserver le principe de la responsabilité professionnelle. De plus, la clientèle doit pouvoir obtenir des explications si elle n’est pas satisfaite d’une décision rendue.
Les personnes responsables ont donc le mandat d’évaluer les recommandations faites par l’IA. Elles pourront ensuite déterminer si ces suggestions sont appropriées dans le contexte donné. Il peut être utile de favoriser le recours à des données explicables et à des systèmes plus transparents qui précisent les motifs de leurs recommandations. Un plus grand niveau de détails simplifiera l’évaluation, la prise de décision, et donnera la possibilité de fournir des explications à la clientèle.
Pour faciliter l’évaluation d’une recommandation, il est également possible de définir :
- les conditions à observer pour valider une décision ;
- les types d’erreurs les plus fréquentes commises selon leur origine (humaine ou informatique) afin de les corriger ;
- les niveaux acceptables de tolérance de ces erreurs selon leur origine (humaine ou informatique).
En déterminant ces critères au préalable, il deviendra plus facile de gérer les situations plus complexes.
Éviter la présence de biais et favoriser l’équité
Les technologies basées sur l’IA ont tendance à perpétuer les inexactitudes et les biais présents dans les données qui ont servi à leur entraînement. En effet, les données utilisées ont été générées et traitées par des humains qui ne sont, eux-mêmes, pas à l’abri de biais. Ainsi, lorsqu’ils sont entraînés avec des données biaisées, les systèmes qui recourent à l’IA apprennent à reproduire ces biais.
Par exemple, historiquement, les femmes ont reçu moins de prêts que les hommes. Un système d’allocation de prêt basé sur l’IA risque donc d’être discriminatoire s’il est seulement entraîné avec des données historiques. Ce système serait automatiquement moins généreux avec les femmes simplement en raison de leur sexe. Pour atténuer l’effet de ce biais, il convient d’accorder un traitement spécial aux données originales.
Comme l’IA est encore peu encadrée, il est préférable de porter une attention particulière à la présence possible de biais. Cependant, il n’est pas toujours facile de détecter la discrimination involontaire faite par une application basée sur l’IA. En effet, les raisons derrière les décisions prises grâce à l’IA ne sont pas systématiquement expliquées de manière transparente.
L’implantation de l’IA doit donc se faire de façon prudente en envisageant l’ensemble des contextes possibles de son utilisation. Cette analyse des usages potentiels contribuera à guider la sélection du système employé. Cet examen permettra le traitement le plus équitable possible de tous les types de clientèles. Offrir aux membres du personnel des formations pour les sensibiliser à la discrimination et établir des protocoles d’aide à la décision sont d’autres solutions à envisager.
Maintenir la confiance
L’implantation de l’IA peut générer de l’inquiétude, au sein du personnel comme de la clientèle. Cette inquiétude peut s’exprimer, entre autres, par la crainte d’une utilisation défaillante ou mal intentionnée de l’IA. Une faible connaissance de cette technologie peut aussi soulever ces doutes.
La clientèle
La clientèle peut avoir peur des risques d’erreurs que présente un système basé sur l’IA. Cette méfiance peut s’expliquer lorsque l’IA est utilisée pour prendre des décisions importantes. Mentionnons, par exemple, l’admissibilité ou non à un prêt pour l’achat d’une maison. Une façon de rassurer la clientèle consiste à préciser l’usage qui est fait de l’IA et à faire intervenir un professionnel dans la prise de décision. Ces indications peuvent aussi aider la clientèle à faire des choix plus éclairés grâce à une meilleure compréhension des enjeux.
La collecte de renseignements personnels peut également présenter des risques d’interférence avec le droit à la vie privée. Il convient ainsi de documenter les règles d’utilisation et de protection des données personnelles de la clientèle. Ces clarifications aideront à transmettre l’information plus facilement.
Enfin, certaines personnes peuvent regretter l’absence de contact humain dans leurs échanges avec des agents conversationnels intelligents. Il peut donc être préférable de continuer à offrir en parallèle la possibilité d’interagir avec des personnes plutôt qu’avec des machines, ou à tout le moins de permettre de finaliser avec un professionnel la transaction engagée avec un agent conversationnel intelligent.
Le personnel
Le personnel peut avoir une certaine méfiance envers l’IA, surtout lorsque ce genre de technologie peut redéfinir ses façons de travailler. La direction doit adopter une attitude d’ouverture pour aider les personnes plus réticentes à exprimer leurs craintes et trouver ensuite des solutions à leurs inquiétudes. Ces solutions peuvent, par exemple, reposer sur le partage d’information et une démarche de formation.
Ainsi, de manière générale, une implantation transparente de l’IA favorise l’établissement d’un lien de confiance avec la clientèle et le personnel.
Respecter la sphère privée
L’implantation de l’IA doit se faire de manière à observer le droit à la vie privée de la clientèle. Dans les secteurs de la finance et des assurances, plusieurs technologies nécessitent d’avoir accès à des données très nombreuses et personnelles. Citons, par exemple, l’incitation douce (nudging), soit l’utilisation d’outils connectés pour encourager le bon comportement des personnes assurées. Ce respect de la vie privée est également important lors du partage de données récoltées avec des tierces parties.
Ainsi, la collecte et la diffusion de données personnelles devraient demeurer optionnelles. En effet, certaines personnes ne sont pas à l’aise de partager autant de données sur leur vie privée avec des entreprises. Un consentement éclairé de leur part est donc nécessaire avant de commencer à recueillir leurs données personnelles. De plus, une option de retrait devrait être facilement disponible pour les gens qui souhaitent quitter un programme après l’avoir essayé. Pour ces cas, des dispositions relatives au traitement des données déjà recueillies devraient aussi être prévues.