droitdu.net

Un site utilisant Plateforme OpenUM.ca

Un code de conduite volontaire pour encadrer l’IA : est-ce suffisant ?

4 octobre 2023
Commentaires
Permalien

En juin 2022, le gouvernement fédéral canadien a déposé la Loi sur l’intelligence artificielle et les données (LIAD) dans le cadre du projet de loi omnibus C-27, dans l’optique d’encadrer le phénomène technologique de l’intelligence artificielle (IA). Dans l’attente de l’adoption de cette loi, qui n’est pas prévu avant encore plusieurs mois, le 27 septembre dernier, lors du lancement du sommet ALL IN à Montréal, le ministre de l’Innovation, des Sciences et de l’Industrie, M. François Philippe Champagne, a fait l’annonce d’un nouveau Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés, ayant comme objectif de prévenir les abus liés à l’IA, de gérer les risques y afférents et bâtir la confiance du public vis-à-vis ces technologies. Cette initiative avait également été intenté en juillet dernier par l’administration Biden-Harris, aux États-Unis, lorsqu’elle a implanté un code de conduite volontaire pour encadrer l’IA, auquel de géantes multinationales américaines comme Amazon, Google, Inflection, Meta, Microsoft et OpenAI ont adhéré. De son côté, l’Union Européenne attend également l’entrée en vigueur du Artificial Intelligence Act, prévue pour 2026 seulement. Néanmoins, le 31 mai 2023, lors de la conclusion de la quatrième réunion du Conseil de Commerce et Technologie US-EU (TTC), Margrethe Vestager, vice-présidente exécutive de l’UE, a déclaré que l’Europe et les États-Unis collaboraient pour élaborer un guide volontaire sur l’IA, en prévision d’une loi officielle à venir. Actuellement, il n’y a donc aucune législation contraignante régissant l’IA, que ce soit au Canada ou à l’échelle mondiale, d’où la nécessité que voyait le gouvernement fédéral d’intervenir temporairement, mais rapidement.

Le code proposé par M. Champagne, entrant en vigueur immédiatement, compte actuellement 14 signataires et propose des résultats auxquels les entreprises devront tâcher d’atteindre, s’articulant autour de 6 grands principes à savoir (1) la responsabilisation, (2) la sécurité, (3) la justice et l’équité, (4) la transparence, (5) la surveillance humaine et (6) la validité et la fiabilité.

  • Responsabilisation – Les entreprises comprennent leur rôle à l’égard des systèmes qu’elles développent ou gèrent, mettent en place des systèmes appropriés de gestion des risques et collaborent avec d’autres entreprises au besoin pour éviter qu’il y ait des lacunes.
  • Sécurité – Des évaluations des risques doivent être réalisées pour les systèmes, et les mesures d’atténuation nécessaires doivent être prises avant le déploiement pour veiller à ce que l’exploitation des systèmes soit sécuritaire.
  • Justice et équité – L’incidence potentielle en matière de justice et d’équité est évaluée et gérée à différentes étapes de l’élaboration et du déploiement des systèmes.
  • Transparence – Suffisamment de renseignements sont publiés pour permettre aux consommateurs de prendre des décisions éclairées et aux experts d’évaluer si les risques ont été adéquatement gérés.
  • Surveillance humaine – L’utilisation du système est surveillée après le déploiement, et des mises à jour sont mises en œuvre au besoin pour gérer les risques qui se matérialisent.
  • Validité et fiabilité – Les systèmes fonctionnent comme prévu, sont sécurisés contre les cyberattaques, et leur comportement en réponse aux diverses tâches ou situations auxquelles ils sont susceptibles d’être exposés est compris.

Pour chacun de ces principes, le code prévoit des mesures supplémentaires auxquelles les entreprises signataires s’engagent à respecter, sur une base volontaire. Notamment, les systèmes d’IA des entreprises devront garantir la transparence en matière de protection des informations et de la confidentialité, tout en disposant de mécanismes pour corriger d’éventuels biais inhérents à leurs systèmes. Il prévoit également que les entreprises signataires continuent d’être assujetties aux obligations légales qu’elles pourraient avoir en vertu de la Loi sur la protection des renseignements personnels et les documents électroniques.

Les limites/critiques de cette initiative

À l’heure actuelle, le Code ne semble pas connaître le succès attendu au sein des acteurs de l’industrie. En effet, il semble que certaines entreprises canadiennes demeurent réticentes à signer le Code, craignant un désavantage concurrentiel pour les Canadiens. Estimant nécessaire d’attirer davantage d’entreprises technologiques au Canada, l’instauration de nouvelles mesures dans ce domaine, alors que d’autres pays n’en ont pas, pourrait compromette cet objectif.

Il y a beaucoup de grandes entreprises technologiques qui, lorsque de telles règlementations sont mises en place, n’autorisent tout simplement pas l’utilisation des technologies à l’intérieur du pays.

Jeff MacPherson, cofondateur de XAgency AI

L’instauration de balises trop strictes pourrait ainsi nuire à la concurrence ou à la qualité des services offerts. D’après l’avocate Carole Piovesan, afin de prévenir les disparités, il est crucial que les régulations adoptées par le Canada soient en phase avec celles des États-Unis et de l’Union européenne. Ottawa devrait donc se garder d’élaborer des mesures trop strictes et s’inspirer de ce qui a déjà été fait par les autres pays en s’efforçant de trouver un juste équilibre entre l’encadrement des risques liés à l’IA et l’avantage concurrentiel.

D’autre part, avec l’évolution fulgurante qu’a connu l’IA au cours des dernières années, de nombreuses inquiétudes ont émergées soulignant la nécessité d’encadrer celle-ci. En effet, selon le Rapport du Groupe de travail sur la sensibilisation du public du Conseil consultatif en matière de l’IA, 71 % des personnes interrogées estimaient qu’on pouvait faire confiance à cette technologie si celle-ci était adéquatement règlementée par les autorités publiques. Du point de vue de la population canadienne, on peut donc s’interroger sur la suffisance de cette solution pour bâtir la confiance de celle-ci face aux systèmes d’IA et les risques associés à ceux-ci. En effet, bien que les effets de cette technologie soient révolutionnaires, les risques de dérapages sont tous aussi importants, comme l’ont souligné Mila — l’Institut québécois d’intelligence artificielle — et l’UNESCO dans leur livre Angles morts de la gouvernance de l’intelligence artificielle, publié en 2023. Ainsi, l’encadrement de ces risques au moyen d’une norme effective devient crucial. Or, étant donné qu’il s’agit d’un engagement volontaire associé à aucun mécanisme de sanction, ce code pourrait-il s’avérer suffisamment efficace pour remplir les objectifs attendus ?

Dans un domaine comme celui du numérique, où les enjeux d’évolutivité et de complexité sont importants, les systèmes d’autorégulation et de corégulation, par lesquelles l’autorité publique définit les objectifs en laissant le soin aux entreprises concernées de trouver les moyens adéquats pour les mettre en œuvre, doivent être envisagés, tel semble être le cas en l’espèce. Comme l’auteur Frédéric Marty le souligne dans son article Une perspective de droit économique sur les engagements volontaires des firmes en matière d’éthique et de conformité, bien que les logiques de corégulation et de conformité se basent sur une délégation à l’entreprise, cela ne signifie pas pour autant qu’elles seront inefficaces. Toutefois, l’efficacité de ce type de règle découle de la potentialité de sanctions liées à son non-respect. Or, tel que mentionné précédemment, le code de conduite proposé par le gouvernement fédéral ne prévoit aucun mécanisme pour en assurer l’application. Les manquements aux engagements prévus ne font donc pas l’objet de sanctions, ce qui risque de miner l’efficacité réelle des mesures contenues dans le code.

« L’engagement volontaire ne peut être suivi d’effets que si la menace d’une sanction existe. L’éthique ne peut se substituer au droit. L’engagement ne peut être qu’une vaine parole en l’absence de sanction par les règles de droit ou de sanction par les consommateurs, les investisseurs ou les autres parties prenantes. »

Frédéric Marty, Frédéric, chercheur associé CIRANO

Si les entreprises signataires ont la liberté de choisir les moyens pour atteindre les objectifs du Code sans craindre de sanctions en cas de manquement, elles pourraient ne pas être motivées à respecter leurs engagements, réduisant ces derniers à de simples affirmations sans substance, menaçant par le fait même les objectifs visés par le gouvernement.

Commentaires

Laisser un commentaire

Sur le même sujet

Derniers tweets