[ENTREVUE] Mythes et craintes de l’IA selon Murat Durmus

Nous avons interrogé l’ingénieur et entrepreneur allemand, Murat Durmus, sur les mythes et craintes qui circulent autour de l’IA. Il est l’auteur du livre The AI Thought Book et s’intéresse à l’éthique de l’IA ainsi qu’aux stratégies de gouvernance des données.

Il a fondé et dirige l’entreprise AISOMA AGThe AI & Data Analytics Experts, à Frankfurt. Sa mission est de Transformer les données en valeur d’action. Sa riche expertise en IA et ses convictions nous ont interpellées. Son opinion sur les peurs associées à l’IA nous semble très pertinente.

CRAINTE I :  Nous allons perdre nos emplois!

CScience IA : Croyez-vous que la valeur du travail humain sera amenée à diminuer avec la place grandissante de l’intelligence artificielle dans tous les secteurs professionnels? 

Murat Durmus : « Je ne pense pas. Au contraire. L’IA rendra certains emplois obsolètes, certes, mais elle en créera de nouveaux. Bien sûr, la période actuelle est critique. Mais au cours des 10 à 20 prochaines années, l’IA sera utilisée dans tous les systèmes experts. Cette forme d’intelligence sera capable d’effectuer des tâches allant de la répétition aux gestes complexes. Cependant, la plupart du temps, les implantations en IA seront spécifiques à un secteur professionnel.

L’IA agira surtout en tant qu’assistant qualifié et soutiendra considérablement les humains dans leur travail, principalement sous forme de recommandations. Les humains auront encore à prendre la décision finale.

L’IA libérera plus de ressources pour d’autres domaines où l’empathie, l’intelligence émotionnelle, etc., jouent un rôle essentiel. Nous allons devoir redéfinir la notion de travail. »

« La peur de perdre son emploi à cause de l’IA est omniprésente et justifiée, mais elle a aussi un aspect positif. Nous sommes obligés de réfléchir plus sérieusement à la redéfinition du travail. »

Murat Durmus, The AI Thought Book

CRAINTE II :  Nous perdons notre espace privé !

CScience IA : Pensez-vous que l’émergence des objets technologiques mette en danger notre intimité ?

The AI Thought Book – Murat Durmus

Murat Durmus : « Pour que l’IA fonctionne bien, elle a besoin de données fiables et de bonne qualité. Car, plus nous en révélons sur nous-mêmes, plus l’IA deviendra une réussite. C’est un dilemme que nous devons traiter avec le plus grand soin.

Cependant, il existe désormais des approches prometteuses telles que l’apprentissage fédéré (Federated Learning) et l’apprentissage automatique préservant la confidentialité (Privacy-Preserving Machine Learning). Nous devons les développer davantage et promouvoir ces approches.

En ce qui concerne la perte de notre espace privé, nous en serons en partie responsables. Dans les années à venir, l’IA va extraire beaucoup d’information sur nous. Si nous lui permettons cela, par commodité, notre espace privé pourrait devenir de plus en plus petit. Cela varie d’un individu à l’autre, selon qu’on le premette ou non. En fin de compte, la commodité (convenience) l’emportera sûrement pour la plupart d’entre nous. »

CRAINTE III : L’IA est biaisée.

CScience IA : Croyez-vous qu’il soit possible de produire des objets technologiques non biaisés ?

Murat Durmus : « Le problème ici n’est pas l’IA elle-même mais les données biaisées avec lesquelles les modèles d’IA sont entraînés. Beaucoup voient la préparation des données et l’étiquetage des données d’un ennui mortel et veulent commencer le plus tôt possible avec la formation ou l’optimisation du modèle.

Mais c’est à ce moment-là qu’il faut être le plus vigilants. De plus, sans savoir s’il existe des alternatives aux modèles de boîte noire, on se rabat sur des algorithmes éprouvés (proven), mais moins transparents. Cela vient sans doute de la méconnaissance d’autres algorithmes transparents.

De plus, nous devrions plutôt nous concentrer sur les données elles-mêmes et non sur les algorithmes. La maîtrise des données et la sensibilisation aux données sont des sujets qui devraient être davantage encouragés et récompensés dans la formation des ingénieurs en apprentissage automatique (Machine Learning). »

CRAINTE IV :  La « boîte noire » de l’IA est dangereuse.

CScience IA : Est-il vrai que nous ignorons parfois pourquoi l’intelligence artificielle fait ce qu’elle fait ?

Murat Durmus : « C’est sans aucun doute vrai pour certains modèles d’IA. Nous devons créer plus de transparence, d’explicabilité et d’interprétabilité dans ce domaine. L’IA explicable a récemment gagné en popularité. Plusieurs grandes entreprises ont déjà mis en œuvre leur cadre normatif et en ont rendu certains disponibles gratuitement.

Entre autre, l’Union Européenne tente d’imposer plus de transparence grâce à des lignes directrices et des recommandations. Cependant, pour autant que je sache, celles-ci ne sont pas suffisemment contraignantes et il faudra un certain temps avant que nous ayons des lois sévères (hard laws).

« Plus l’intelligence artificielle entre dans nos vies, plus l’éthique et la philosophie deviennent essentielles. »

Murat Durmus, The AI Thought Book

Mais il ne suffit pas d’expliquer et d’être transparent car il faut le faire pour le bien de la société. Nous en sommes encore au tout début. Alors que l’IA devient de plus en plus complexe et est conduite à des niveaux de performance plus élevés, nous sommes à la traîne sur les aspects éthiques. Nous ne devons pas permettre que cet écart devienne encore plus important, car cela nous dépassera un jour. »

CRAINTE V : L’IA nous transforme.

CScience IA : Devons-nous craindre que notre interaction avec les objets technologiques conditionne nos comportements ?

Murat Durmus : Cela pourrait être déjà le cas, si l’on considère qu’il y a vingt ans, alors qu’aucun système de navigation n’existait, nous arrivions à notre destination avec une carte à la main, ou en interrogeant les passants. Qui prend encore aujourd’hui une carte en main s’il veut se diriger quelque part? Ce n’est qu’un petit exemple de changement.

Dans le domaine de l’IA, le changement sera (ou est déjà) bien plus important. Certains d’entre nous ne regardent, n’achètent ou n’écoutent que ce qui a été recommandé par une IA.

On pourrait étendre cela dans presque tous les domaines de notre vie, parce que l’IA touchera tout. Cela deviendra encore plus extrême si nous devons parler un jour à des robots humanoïdes. Une IA intégrée dans une forme humaine affectera encore plus nos comportements.

« Plus nous vivons et nous comportons de manière artificielle, plus l’intelligence artificielle aura du succès. »

Murat Durmus, The AI Thought Book

C’est pourquoi je pense que nous avons besoin de plus de personnes dans les domaines de la philosophie, de la psychologie, de la sociologie et des sciences humaines pour aborder le sujet de l’IA. Nous n’avons, jusqu’à présent, vu et expérimenté que la pointe de l’iceberg en termes d’IA.

Les implications importantes sont encore à venir et deviendront soudainement très visibles. Nous devons nous préparer dès maintenant à cette situation pour pouvoir prendre des mesures ciblées (targeted action). »

___

Murat Durmus

AISOMA AG – The AI & Data Analytics Experts | Frankfurt

The AI Thought Book

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *