L’intelligence artificielle : un potentiel inégalé
L’intelligence artificielle (IA) est une technologie qui a pour but d’imiter les aptitudes humaines en ce qui concerne la résolution de problèmes et la prise de décision.
8 juillet 2024
Lorsque l'IA est bien conçue et utilisée correctement, celle-ci peut analyser une grande quantité de données provenant d’une multitude de sources et en tirer des apprentissages, le tout sans délai. Une institution financière pourrait, par exemple, utiliser l’IA pour effectuer ou assister dans les calculs, la prise de décisions, ainsi que pour faciliter la production de divers rapports et communications.
Les risques liés à l’utilisation inadéquate de l’IA
Dans son rapport sur les risques mondiaux 2024 Ce lien s'ouvrira dans une nouvelle fenêtre, le Forum économique mondial classe le risque de désinformation et de mésinformation liées à l’IA au 1er rang des menaces à court terme sur un horizon de deux ans. Les possibilités qu’offre l’IA sont multiples, mais cette technologie comporte également de nombreux risques, dont les impacts ne sont pas entièrement connus à l’heure actuelle. Cette situation incite donc une attention particulière lors de son utilisation. Les risques que pose l’IA pourraient avoir un impact sur les clients de façon importante. Mentionnons, entre autres, les décisions inéquitables découlant de biais discriminatoires dans les données d’entraînement, les erreurs en raison de la réduction de la surveillance humaine, le manque de transparence quant à l’utilisation de l’IA et le non‑respect de la vie privée.
En ce qui a trait à l’IA générative, laquelle fait référence à l’utilisation de l’IA pour créer de nouveaux contenus, comme du texte, de l’audio ou des vidéos, son implantation dans les institutions financières devrait avoir comme point de départ la connaissance et la gestion adéquate des risques liés à l’utilisation de l’IA. À noter que les risques liés à l’utilisation inadéquate de l’IA présentent plusieurs interrelations avec des risques d’autres natures tels que le risque de tiers, de modèles, de données ou encore de non‑conformité réglementaire.
L’encadrement de son développement et de son usage
Devant l’intérêt grandissant pour l’IA, les gouvernements et les régulateurs ont entrepris une réflexion sur son développement et son usage. En Europe, une loi est en préparation Ce lien s'ouvrira dans une nouvelle fenêtreLe parlement européen a approuvé cette loi en mars 2024. Le contenu final de la loi sera officialisé à l’issue des négociations avec les pays membres qui doivent être tenues. afin d’encadrer l’IA proportionnellement au risque qu’elle comporte. Cette loi vise, entre autres, à interdire la commercialisation d’IA jugées à haut risque qui auraient notamment la capacité de fausser le comportement humain ou d’exploiter les vulnérabilités des consommateurs.
Plus près de nous, aux États-Unis, la Maison Blanche s’est dotée d’un encadrement de droits des utilisateurs de l’IA par voie de décret Ce lien s'ouvrira dans une nouvelle fenêtre. Elle avait, plus tôt, enjoint des développeurs de l’IA à adopter un code de conduite volontaire. D’autre part, le National Association of Insurance Commissioners, l’organisation américaine de normalisation et de soutien à la réglementation, a publié fin 2023, des lignes directrices modèles Ce lien s'ouvrira dans une nouvelle fenêtre pour adoption par les régulateurs étatiques des assureurs.
Au Canada, une loi est en préparation Ce lien s'ouvrira dans une nouvelle fenêtre pour encadrer l’utilisation et le développement de l’IA par le secteur privé et devrait être adoptée au plus tôt en 2025. Comme l’a choisi la Commission européenne, cette loi encadrerait l’IA proportionnellement au risque qu’elle comporte, à la différence qu’il n’est pas prévu que des IA jugées à haut risque soient interdites d’emblée. Entretemps, le Canada s’est doté d’un Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés Ce lien s'ouvrira dans une nouvelle fenêtre.
Le gouvernement québécois a quant à lui octroyé au Conseil de l’innovation du Québec (CIQ) le mandat de diriger une réflexion non partisane sur les opportunités, les risques et l’encadrement de l’IA. À la suite d’un processus participatif ayant impliqué des centaines d’experts, dont l’AMF, ainsi que le public, le CIQ a publié un document Ce lien s'ouvrira dans une nouvelle fenêtre en février dernier recommandant notamment l’adoption d’une loi québécoise pour l’encadrement de l’IA visant les individus, le secteur privé et les organismes publics.
L’IA et l’AMF
En novembre 2021, l’AMF a signé la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle Ce lien s'ouvrira dans une nouvelle fenêtre et a publié un rapport sur l’utilisation responsable de l’IA en finance (pdf - 30 Mo)Ce lien s'ouvrira dans une nouvelle fenêtreMise à jour effectuée le 8 mars 2022. Depuis, l’AMF s’affaire à mettre en œuvre les recommandations de ce rapport, tant par la participation au processus d’évaluation des besoins d’encadrement de l’IA pour l’État québécois, que par son développement d’encadrements visant les institutions financières.
De façon contemporaine, l’AMF a publié en février 2024, pour discussion, une proposition des Meilleures pratiques pour l’utilisation responsable de l’IA dans le secteur financier (pdf - 1 Mo)Ce lien s'ouvrira dans une nouvelle fenêtreMise à jour effectuée le 8 février 2024Pour réaliser sa mission, l’Autorité a mis de l’avant, dès 2016, différentes initiatives en lien avec la transformation numérique du secteur financier, notamment pour anticiper les enjeux en matière de réglementation et de protection des consommateurs. En novembre 2021, elle a clairement démontré son intérêt pour l’utilisation responsable de l’intelligence artificielle (l’IA) en signant la Déclaration de Montréal sur l’utilisation responsable de l’intelligence artificielle et en publiant le document L’intelligence artificielle en finance – Recommandations pour une utilisation responsable (le Rapport de 2021), rédigé à sa demande par l’Algora Lab, le laboratoire interdisciplinaire de l’Université de Montréal et de l’Institut québécois d’intelligence artificielle (Mila). Le Rapport de 2021 met de l’avant dix recommandations pour favoriser le développement responsable de l’IA en finance : trois d’entre elles sont formulées à l’attention de l’Autorité, alors que les autres sont adressées à l’industrie.. Suivant cet exercice, l’AMF travaille à développer une ligne directrice afin de clarifier ses attentes envers les institutions financières quant à leur usage et leur développement de l’IA.
À l’international, l’AMF a intégré le FinTech Forum Ce lien s'ouvrira dans une nouvelle fenêtre de l’Association internationale des contrôleurs d’assurance (AICA). En 2024, ce forum examinera les développements liés aux technologies financières tout en servant de référence afin d’aider les autorités de surveillance à suivre les tendances et les développements dans ces nouvelles technologies. L’AMF participe à la rédaction de ce papier et sera, en ce sens, aux premières loges du développement des meilleures pratiques.
Cet article pourrait également vous intéresser