[ÉDITORIAL] Amplifier notre mission : promouvoir l’IA responsable

[ÉDITORIAL] Amplifier notre mission : promouvoir l’IA responsable

Ce mois d’avril a marqué un tournant significatif dans l’évolution de notre média d’information et de la mission qui lui incombe depuis sa création, il y a près de trois ans. Avec la reconnaissance officielle le 19 avril dernier par Google de notre mission d’information et de promotion de l’IA responsable, à travers l’octroi d’un programme d’accompagnement massif de nos efforts de promotion, nous ouvrons un nouveau chapître de notre émergente mais déjà riche aventure collective.

C’est une histoire comme beaucoup d’entrepreneurs rêvent d’en vivre : faire grandir un projet rentable en adéquation avec une mission et des valeurs fortes. C’est l’histoire de notre média, CScience IA.

L’histoire d’un pari un peu fou, au départ. Celui de créer en 2018, ici au Québec et grâce à l’appui du Ministère de l’Économie et de l’Innovation, un média francophone qui servirait de relais de transmission éditorial entre les enjeux de recherche scientifique et les besoins de l’industrie, au nom d’une vision éthique de l’innovation et dans un contexte de pénurie de main-d’œuvre. 

Un peu moins de trois ans après sa création, alors que nous approchons de la barre symbolique des 125 000 lecteurs cumulés, que notre équipe éditoriale compte désormais près d’une quinzaine de collaborateurs réguliers, et que nos projets agrègent de plus en plus de joueurs institutionnels majeurs, tant académiques qu’industriels,  CScience vient de recevoir l’appui du géant Google pour promouvoir sa mission éditoriale et sensibilisatrice. 

INFORMATION ET SENSIBILISATION 

Une reconnaissance en grande partie rendue possible grâce à l’initiative de notre Directeur des contenus, Jonathan Chodjaï, qui a poussé à la création l’an dernier de l’organisme sans but lucratif, CScience Le Lab, bras armé moral – si j’ose dire – de notre engagement éditorial.

Cet organisme indépendant, présidé par Anjali Caillat, agit comme organe de surveillance éthique pour notre média d’information et poursuit une mission de promotion de l’IA responsable à travers des projets pluridisciplinaires et multigénérationnels.     

Une façon de donner de l’ampleur à notre dynamique éditoriale en complétant notre démarche d’information quotidienne d’un rôle de sensibilisation aux pratiques responsables et éclairées en intelligence artificielle.

« Considérer que les peurs vis-à-vis de l’IA sont sont le fruit du fantasme ou de l’ignorance, reviendrait à prendre le risque d’un rejet pur et simple de l’innovation sous toutes ses formes » –Philippe Régnoux, Directeur de publication de CScience IA

L’ENJEU CRUCIAL DE L’ACCEPTABILITÉ SOCIALE DE L’IA

Nos publications ne laissent pas les lecteurs indifférents. Nous mesurons le degré de réaction du public dans les nombreux commentaires laissés sur les réseaux sociaux à la suite de la parution de certains de nos articles. Même s’il convient en la matière de séparer le bon grain de l’ivraie, il n’en demeure pas moins qu’un constat s’impose : l’intelligence artificielle suscite bien des interrogations et nourrit des peurs profondes.

Ne pas reconnaître cette réalité, ou considérer que les peurs vis-à-vis de l’IA sont sont le fruit du fantasme ou de l’ignorance, reviendrait à prendre le risque d’un rejet pur et simple de l’innovation sous toutes ses formes chez une grande partie de la population. Les exemples de mauvaise utilisation des données, personnelles ou industrielles, ne manquent pas. Les dérapages algorithmiques prêtent le flanc à la critique, parfois même à la haine des scientifiques et des chercheurs.

C’est l’acceptabilité sociale de l’IA qui est va être au coeur de nombre de nos préoccupations collectives dans les toutes prochaines années. C’est à cette aune-là que l’IA sera jugée soit comme une alliée incontestable du progrès de nos sociétés, soit comme un démon incontrôlable et pernicieux.

Nous avons donc le devoir plus que jamais d’éclairer les consciences, de rendre compte de la réalité de l’IA dans toute sa grandeur et ses défauts, sans voiler la vérité ni amplifier le sensationnalisme propre à l’apparition de toute technologie nouvelle. En donnant l’heure juste, tout simplement. 

POURSUIVRE UNE MISSION D’INTÉRÊT GÉNÉRAL

Avec la reconnaissance par Google de notre mission d’intérêt général en faveur de l’IA responsable, nous allons pouvoir partager notre travail d’information et de sensibilisation à une plus large part de la population.

En amplifiant la caisse de résonnance de l’IA responsable, c’est-à-dire une IA au service de l’humanité, éthique dans sa conception comme dans son application, accompagnant la maîtrise et le respect de notre environnement, respectueuse du droit des peuples et accompagnant le développement de nos connaissances, nous plaçons notre démarche d’information au coeur des problématiques du monde actuel. 

Nous ne sommes plus uniquement des témoins mais bien des acteurs engagés de notre époque. 

Fidèle à notre engagement, à nos valeurs, telles qu’enchâssées dans notre manifesto, nous nous inscrivons pleinement dans la vision développée dans le guide “Penser l’intelligence artificielle responsable“, publié récemment par l’OBVIA, l’Université de Montréal, Algora Lab et le CIFAR, qui nous invite à délibérer sur la place publique des enjeux éthiques de l’IA.

Libérer la parole au sujet de cette technologie naissante, “impliquer le plus grand nombre possible de personnes, au-delà des cercles d’expertes et d’experts et de décideuses et décideurs publics”, pour citer le guide de l’OBVIA,  est plus que salutaire aujourd’hui, c’est crucial pour assurer un avenir pérenne aux solutions qui émergent présentement dans nos centres de recherche.

Nous devons bien cela aux centaines de millions de dollars des contribuables engagés chaque année pour que l’IA grandisse et se déploie.

  

En illustration : Les bureaux de GALA MEDIA / Crédits photo : GALA MEDIA, Avril 2021