En légiférant pour la première fois sur l’intelligence artificielle, le 2 février dernier, les Vingt-Sept ont fait du Vieux Continent un précurseur en matière d’encadrement de cette technologie. CScience esquisse les grandes lignes de la nouvelle réglementation européenne pour aider les start-up et entreprises utilisant des systèmes d’IA dans l’UE à anticiper leur mise en conformité.
Chloé-Anne Touma, rédactrice en chef de CScience, l’avait annoncé au lendemain du vote : « l’AI Act, la première loi au monde en matière d’intelligence artificielle, vient d’être adoptée à l’unanimité par les 27 États membres de l’Union européenne, marquant une étape clé dans la régulation de l’intelligence artificielle ». Le texte, proposé dès avril 2021, sera probablement adopté de manière définitive en juin 2024 après un dernier vote au Parlement européen.
« Construire une IA digne de confiance »
L’objectif est ambitieux : « La Commission vise à faire face aux risques générés par des utilisations spécifiques de l’IA au moyen d’un ensemble de règles complémentaires, proportionnées et flexibles », indique-t-elle dans un rapport. Cette réglementation vient en réponse aux dérives des systèmes d’intelligence artificielle – fausses informations, manipulation de marchés financiers, piratages, exploitation de préjugés, etc. Autant de risques de plus en plus visibles dernièrement et qu’il devient urgent d’encadrer, à l’instar des fausses images pornographiques générées par l’intelligence artificielle de la chanteuse américaine Taylor Swift, retracé dans un article de Martine Coulombe pour CScience.
Avec l’AI Act, la Commission européenne affiche clairement son ambition de « construire une IA digne de confiance [qui] créera un environnement sûr et propice à l’innovation pour les utilisateurs, les développeurs et les déployeurs » et s’assure dans la foulée un « rôle de premier plan dans la définition de l’étalon-or mondial ».
Des images explicites de Taylor Swift générées par l’IA font scandale
Les étapes clé pour se mettre en conformité
France Digitale, plus grande association de start-up en Europe, a créé un guide en collaboration avec l’entreprise de conseils Wavestone et le cabinet d’avocats Gide, dont l’objectif est d’accompagner pas à pas les acteurs concernés dans leur mise en conformité. Ce manuel s’adresse à toutes les start-up et entreprises innovantes qui développent une solution à base d’IA ou intègrent déjà cette technologie de pointe dans leurs processus, produits et services au sein de l’Union européenne.
Les dix étapes de mise en conformité proposées par le rapport partent de l’adoption d’un système de gestion des risques – choisir des mesures de gestion des risques appropriées et ciblées pour répondre aux risques identifiés – et vont jusqu’à l’enregistrement dans la base de données de l’UE en passant par la traçabilité, la supervision humaine, ou encore l’exactitude, la robustesse et la sécurité du système d’IA tout au long de son cycle de vie.
Cartographier les systèmes IA selon leur niveau de risque
Dans son rapport, France Digitale explique également que les entreprises qui développent, fournissent ou déploient des systèmes d’intelligence artificielle dans l’Union européenne devront procéder à une mise en conformité en fonction de leur niveau de risque – inacceptable, haut, faible, minime :
- « Risque inacceptable : les systèmes et modèles d’IA à risque inacceptable sont interdits et ne peuvent être commercialisés ni dans l’Union européenne ni utilisés à l’export ;
- Haut risque : les systèmes et modèles d’IA à haut risque doivent faire l’objet d’un marquage CE pour être commercialisés ;
- Risque faible : les systèmes et modèles d’IA à risque faible doivent faire l’objet d’obligations d’information et de transparence vis-à-vis des utilisateurs ;
- Risque minime : les systèmes et modèles d’IA à risque minime peuvent se contenter de respecter des codes de conduite. »
Les modèles d’IA génératives, incluant les géants ChatGPT d’OpenAI et Bard de Google, conçus hors UE, sont eux aussi concernés par cette réglementation. France Digitale rappelle néanmoins que ces obligations de mise en conformité s’appliquent à « chaque système ou modèle d’IA, et non à l’entreprise dans son ensemble ».
Une tendance à la réglementation qui se confirme au Québec
Si l’Union européenne a définitivement passé un cap en adoptant à l’unanimité la toute première réglementation sur l’intelligence artificielle, le Canada a aussi fait un grand pas en faveur d’une utilisation plus responsable de cette technologie. « Le rapport Prêt pour l’IA, émis par le Conseil de l’Innovation du Québec, fait état de 12 recommandations favorables au développement de l’IA, la première se rapportant à son encadrement », explique Chloé-Anne Touma, rédactrice en chef de CScience.
Ces recommandations, fruit d’une réflexion collective visant à répondre au défi du déploiement responsable de l’IA au Québec, sont regroupées autour de cinq grands axes : encadrer, anticiper, former, propulser et positionner les systèmes d’intelligence artificielle.
Le Québec semble donc aller dans la même direction que l’Europe pour encadrer rigoureusement l’usage de l’IA : « La sévérité des risques que posent les nouveaux systèmes d’IA, dont la puissance ne cesse de croître, a récemment incité de nombreux gouvernements et pays à adopter une attitude plus interventionniste en matière d’encadrement de cette technologie. Le Québec devrait faire de même ».
« La sévérité des risques que posent les nouveaux systèmes d’IA, dont la puissance ne cesse de croître, a récemment incité de nombreux gouvernements et pays à adopter une attitude plus interventionniste en matière d’encadrement de cette technologie. Le Québec devrait faire de même »
— Prêt pour l’IA, rapport du Conseil de l’Innovation du Québec
Quand l’IA fait la loi : le paradoxe de l’œuf et de la poule
Cette forte réglementation émanant du Canada et de l’Europe est encourageante en matière de sécurité et de droits humains fondamentaux. Néanmoins, elle pourrait également représenter un frein à l’innovation et laisser les entreprises québécoises et européennes sur la touche face aux géants de la tech.
« Cette décision a un goût doux amer. Si l’AI Act répond à un enjeu majeur en matière de transparence et d’éthique, il crée néanmoins des obligations conséquentes pour toutes les entreprises qui utilisent ou développent de l’intelligence artificielle, malgré quelques aménagements prévus pour les start-up et PME notamment au travers de bacs à sable réglementaires. Nous craignons que le texte ne fasse que créer des barrière réglementaires supplémentaires qui profiteront à la concurrence américaine et chinoise et réduirons nos opportunités de faire émerger des champions européens de l’IA », conclut Marianne Tordeux Bitker, directrice des affaires publiques de France Digitale.
Crédit Image à la Une : Niklas Hamann