[ÉDITORIAL] : Pourquoi une partie de la planète IA veut-elle se mettre (aujourd’hui) en pause ?

[ÉDITORIAL] : Pourquoi une partie de la planète IA veut-elle se mettre (aujourd’hui) en pause ?

La pétition lancée par le Future of Life Institute, dévoilée le 29 mars dernier et signée par de nombreux chercheurs et scientifiques de l’intelligence artificielle, n’en finit pas de faire couler encre et salive. En mettant à jour leur inquiétude quant aux « graves risques pour la société et l’humanité » que fait courir, selon eux, le développement des robots conversationnels et de l’IA, ces milliers de signataires ont créé la stupeur. Ils demandent un moratoire sur la recherche dans le domaine pendant six mois, afin de se donner le temps de penser un meilleur encadrement du développement de cette technologie. 

C’est un vent de panique qui souffle sur la planète IA depuis quelques jours. Une véritable tornade dans le landerneau des technologies de pointe, qui nous a plus habitués, depuis des années, aux douces mélopées des nouvelles rassurantes qu’au cri strident de la peur.

« Certes, il y a toujours eu un doute (…) mais jamais un tel effroi jeté à la face du monde par des scientifiques que l’on croyait voués corps et âme au Dieu du progrès par l’IA. »

Certes, il y a toujours eu un doute, une méfiance sur l’utilisation de nos données, sur les dérives possibles de la surveillance, du contrôle et des biais algorithmiques, mais jamais un tel effroi jeté à la face du monde par des scientifiques que l’on croyait voués corps et âme au Dieu du progrès par l’IA.

Parce qu’ils l’avaient pensé et lui accordaient tous les mérites possibles. Parce qu’ils avaient adhéré à la Déclaration de Montréal, qui nous promettait une IA responsable et durable. Parce qu’ils nous répétaient ad nauseam que nous serions les champions de l’innovation et du progrès si nous libérions l’accès à nos données pour accélérer la recherche de pointe dans des secteurs névralgiques de notre société comme la santé, ces scientifiques nous ont fait espérer en un avenir meilleur grâce à la saine utilisation et à l’intelligence des données face aux grands enjeux du moment.

Eh bien, non. Revirement à 180. Ils nous le disent haut et fort : ils n’ont pas enfanté un petit poussin qui prendrait le temps de la couvée, non, ils ont indirectement créé un Frankenstein qui grandit trop vite ! Il faut freiner la bête. Chat GPT et autres bestioles du même genre, à la niche !

Un moratoire prématuré ou trop brutal 

La question s’est donc posée dans plusieurs esprits ces derniers jours : ces scientifiques qui poussent aujourd’hui des cris d’orfraie, savent-ils où ils vont ? Ceux-là même qui se disent « gravement » inquiets aujourd’hui, et qui, il y a encore quelques semaines, pour reprendre l’expression de Yoshua Bengio, se « pétaient les bretelles » de disposer d’un écosystème de recherche aussi dynamique et tissé serré : quel message nous envoient-ils ? Stop ou encore ? C’est à n’y plus rien comprendre.

Il s’agit d’un tel pavé dans la mare, ayant provoqué une véritable confusion des esprits, que Yoshua Bengio a dû se fendre in extremis d’une lettre ouverte hier mercredi, pour tenter de remettre les pendules à l’heure. Une démarche qui ressemble à du rétropédalage en règle.

« (…) ces scientifiques qui poussent aujourd’hui des cris d’orfraie, savent-ils où ils vont ? »

Face à ce qui pourrait à raison passer pour de la schizophrénie, Yoshua Bengio se fait fort de rappeler que les systèmes d’IA visés par le moratoire sont ceux qui, encore plus puissants que GPT-4, passent le test de Turing, autrement dit « peuvent tromper un être humain en lui faisant croire qu’il converse avec un autre être humain et non avec une machine ».

Certes, mais comment le commun des mortels peut y voir clair quand, d’un côté, on lui vante publiquement l’importance et la dynamique de la recherche en IA (ce que réaffirme notamment Yoshua Bengio dans sa lettre ouverte) – recherche qui, et quoi qu’on en dise, vise à créer des algorithmes qui peuvent dans l’absolu tromper l’être humain – et de l’autre, on appelle à « prendre du recul » face aux dangers que représenterait l’accélération de cette même recherche dans des cas bien précis ?

Quelle drôle de mouche, artificielle ou non, a-t-elle piqué ces scientifiques-là ? Nous aurions sans doute souhaité les entendre, tels des lanceurs d’alerte sur les plateaux télé façon Don’t Look up, nous mettre en garde plus tôt face à un tel danger qui semble menacer « la société et l’humanité ». Les robots conversationnels ne sont pas nés la semaine dernière !

https://www.cscience.ca/2023/03/30/intelligence-artificielle-les-scientifiques-gravement-inquiets/

Certes, l’UNESCO et Mila nous ont mis sur la piste le 21 mars dernier en dévoilant l’ouvrage Les angles morts de l’intelligence artificielle, qui appelle nos sociétés à se doter d’une meilleure gouvernance de l’IA et à se méfier d’une « architecture du pouvoir lié à l’IA » dont les décisions ne sont pas prises par nous, mais par « un nombre extrêmement restreint de hauts placés non élus », pour reprendre les termes de la chercheuse principale senior à Microsoft Research, Kate Crawford.

« Car la question qui reste primordiale, c’est ‘pourquoi un moratoire maintenant ?’ »

Mais de là à appeler à un moratoire, une interruption pure et simple d’une partie de la recherche expérimentale en IA du fait d’une menace aussi grave pour nos sociétés, il y a un pas de côté qui laisse furieusement songeur. Car la question qui reste primordiale, c’est « pourquoi un moratoire maintenant ? » Les gouvernements sont appelés à la rescousse pour légiférer, bref, on leur demande de brider la bête, mais nos scientifiques savent que la bête elle-même est un train lancé à pleine vitesse que l’on mettra du temps à freiner. Le droit ayant toujours une longueur de retard sur le développement technologique.

Si le mal est si profond, est-ce qu’un moratoire de six mois sera suffisant ? L’arsenal juridique, et en premier lieu le projet de loi fédéral C-27, dans sa partie 3 qui vise précisément à encadrer le déploiement de l’IA, est encore incomplet. La future Loi sur l’intelligence artificielle et les données (LIAD) va nécessiter au moins deux ans de consultation avant son entrée en vigueur et la mise en application des premiers règlements dans le courant de l’année 2025. On est donc loin de disposer d’un système d’encadrement juridique de l’IA d’ici six mois…

« Comment convaincre après cela la population, déjà défiante dans sa grande majorité, d’accorder sa confiance aux futurs travaux des chercheurs en IA ? » – Philippe Régnoux, Directeur de publication, CScience

Sans compter que l’on se demande encore si ce moratoire s’appliquerait à un type de recherche en particulier, à un type de chercheurs bien précis. Les signataires appellent à un « changement de cap ». Mais quel cap vise-t-on ? Rien n’est encore clair dans les modalités d’application d’un tel régime minceur, et tout cela donne tout de même l’impression d’une grande improvisation.

Ces scientifiques qui nous interpellent risquent de donner l’impression au grand public de gamins qui jouent avec des allumettes et un bidon d’essence dans le garage de leurs parents, houspillent ces derniers quand ils leur demandent de faire attention, finissent par mettre le feu au garage et appellent urgemment à l’aide ces mêmes parents pour éteindre l’incendie. In girum imus nocte et consumimur igni…

Manque (ou trop) de transparence = défiance

Et c’est bien cela qui pose problème dans tout ce ramdam. Comment convaincre après cela la population, déjà défiante dans sa grande majorité, d’accorder sa confiance aux futurs travaux des chercheurs en IA ? Il est sain d’être transparent. Il est dévastateur de donner le sentiment de ne pas contrôler son outil et son message.

« Il est sain d’être transparent. Il est dévastateur de donner le sentiment de ne pas contrôler son outil et son message. »

Là encore, Yoshua Bengio et les initiateurs de l’appel au moratoire prennent soin de distinguer les systèmes non encore développés et plus puissants que GPT-4 des systèmes d’IA « visant les priorités sociétales ». Ils s’attaquent aux dérives potentielles des premiers tout en prenant soin de vanter les mérites de l’appui accordé aux seconds.

Cependant, à défaut d’une solution juridique solide et prête à l’emploi dans un délai respectable, le débat de société qu’appellent nos chercheurs en vue d’installer une IA responsable risque de tourner court. Les attentes risquent d’être trop grandes face aux réponses concrètes apportées, et la démarche risque de mener à une désaffection plus prononcée à l’égard de la recherche, si les pouvoirs publics n’y répondent pas dans les temps.

« (…) Si le mal est si profond, est-ce qu’un moratoire de six mois sera suffisant ? » – Philippe Régnoux, Directeur de publication CScience

Que diront alors les chercheurs ? « On vous l’avait bien dit » ? « On vous avait prévenus » ? Faudra-t-il se contenter, la société devra-t-elle se contenter d’une telle posture que Ponce Pilate ne démentirait pas ?

C’est bien la culture d’approche vis-à-vis de la recherche en IA qu’il faut revoir. Et les chercheurs sont autant voire plus responsables de cela que les pouvoirs publics. Au Québec, comme nous le signalions en février dernier, cela va passer par la nécessité de sortir d’une culture de l’entre-soi qui donne l’impression de penser et de développer la recherche en totale déconnexion de la réalité environnante.  Il faut que la recherche sorte des murs des centres de recherche, et accélérer l’adoption de l’IA dans les organisations et les entreprise en tenant compte des besoins et des appréhensions manifestées par les utilisateurs. C’est ainsi que se construira un cadre de pratiques vertueux. Pas en se barricadant dans ses murs et en appelant les gouvernements à agir avant de continuer à avancer.

https://www.cscience.ca/2023/03/31/emission-cclair-peut-on-faire-confiance-a-lintelligence-artificielle/

Comme le souligne le doyen de la faculté des arts et des sciences de l’Université de Montréal, Frédéric Bouchard, dans un récent article de nos confrères de La Presse, « il y a des années, des chercheurs de talent comme Yoshua Bengio ont travaillé dans leur coin. Même si on ne savait pas exactement à quoi ça servait, on leur a fait confiance. » Cette confiance a aujourd’hui un prix. Le prix de l’honnêteté, certes, de la clairvoyance, mais aussi du courage d’assumer ses choix.

Et la réalité, ce sont des défis complexes grandissants rencontrés par les organisations et par la société qui appellent des solutions technologiques d’ampleur.

Changeons la culture de la recherche en IA, sortons d’une logique incantatoire de « main invisible », parfait rejeton de la pensée ultralibérale, qui a guidé la naissance du cyberespace depuis les années 90, et qui se projetait comme un monde qui serait partout et nulle part et où les dérives s’autocorrigeraient spontanément. Nous constatons plutôt que la main enserre, asservit, étouffe, plutôt qu’elle ne nous libère et crée l’épanouissement collectif tant attendu.

Une vision collective en renfort  

Un moratoire non coordonné et suivi à l’échelle internationale aura peu de chance d’être efficace et pérenne dans ses effets. Si les gouvernements et les chercheurs du Canada, de l’Europe et des Etats-Unis suivaient cette même discipline, qu’en serait-il si la Chine, Israël et la Corée du Sud, qui restent parmi les principaux acteurs en recherche et développement de l’IA dans le monde, ne suivaient pas le mouvement ?

« (…) à défaut d’une solution juridique solide et prête à l’emploi dans un délai respectable, le débat de société qu’appellent nos chercheurs en vue d’installer une IA responsable risque de tourner court. » – Philippe Régnoux, Directeur de publication CScience

La réalité mondiale et globale du développement de l’IA appelle non pas des voeux pieux qui sont synonymes d’impuissance (le rêve d’une gouvernance mondiale de l’IA se brise immanquablement aux pieds des intérêts stratégiques et économiques de chaque État), mais au contraire par une plus grande maîtrise par les États eux-mêmes de la gestion souveraine de leurs données. Au Canada, cela doit passer impérativement par une politique de la recherche cohérente, plus centralisée et plus intégrée dans le respect des prérogatives de chaque province.

Il faut nationaliser l’usage des données.

Cela doit passer par la formation accélérée des agents de l’État et des collectivités à la maîtrise des outils technologiques : le degré de littératie numérique actuel des gouvernements pour assurer la coordination des outils de gestion des données est encore trop faible.

C’est ainsi probablement que nous obtiendrons l’appui des citoyens pour la recherche en IA, ô combien nécessaire aujourd’hui, sans avoir pour autant à appeler à des moratoires qui n’ont que très peu d’effets réels sur le cours des choses.

Philippe Régnoux
Directeur de publication, CScience
p.regnoux@galamedia.ca

Crédits photo image en Une : CScience Média