Réduire les risques d’accident d’avion grâce à l’intelligence artificielle

Réduire les risques d’accident d’avion grâce à l’intelligence artificielle

Quelle est la principale cause d’accident d’avion selon vous ? Un bris mécanique ? La météo ? Des années 50 jusqu’aujourd’hui, les erreurs de pilotage sont responsables de plus de la moitié des accidents aériens, indique le site PlanetCrashInfo.com. Grâce à l’intelligence artificielle (IA), le projet DEEL (DEpendable and Explainable Learning) tente d’inverser la tendance.

Selon le site PlanetCrashInfo.com, en 1950, 58 % des accidents d’avions étaient attribuables aux erreurs de pilotage. Aujourd’hui, ce chiffre n’a baissé que de 5 %, indiquant le besoin de développer de nouvelles innovations capables de réduire les risques d’erreur.

Le projet DEEL-Québec

Formée de Québécois et de Français, l’équipe menant le projet DEEL-Québec s’y attarde justement. Ses chercheurs développent actuellement des structures de base intégrant l’IA dans les systèmes critiques des avions, et visant l’amélioration de l’application de l’apprentissage automatique, selon quatre grands axes principaux.

Encore à ses débuts, le projet doit s’étendre sur cinq ans, avec un budget de 7,5 millions de dollars. Issu d’une collaboration entre l’Université de Montréal, l’Université Laval, la Polytechnique, l’UQAM et l’Université McGill, le volet québécois a vu le jour le 14 septembre 2020, alors que son partenaire français est actif depuis le 28 septembre 2018.

Selon Magali Vaissière, présidente de l’IRT Saint Exupéry : « Cette collaboration internationale nous permet d’avancer de manière décisive dans le développement de l’Intelligence artificielle pour les systèmes critiques. Le modèle du programme DEEL, à la fois novateur et ambitieux, regroupe actuellement plus d’une centaine de chercheurs, doctorants et ingénieurs travaillant et publiant conjointement de chaque côté de l’atlantique afin de participer à la mobilité intelligente de demain. »

1. La robustesse

Il ne s’agit pas ici de solidité de matériaux, mais bien de « robustesse dans les résultats ». L’IA se montre fragile dans des situations qui diffèrent de ce qu’elle a appris. C’est donc par l’apprentissage automatique qu’on la rend résistante aux changements du contexte dans lequel les modèles prédictifs ont été intégrés.

2. La certifiabilité

Si des certificats de fiabilité sont établis pour des logiciels standards, il en va autrement des systèmes logiciels issus de l’apprentissage profond, car leurs règles de décision ont été apprises à partir de la data. Dans le cas des logiciels standards, elles sont explicitement programmées par des humains. Il faut donc développer un nouveau type de certification, qui pourra assurer la fiabilité et la sécurité des logiciels de l’aéronautique qui seront appris par l’IA.

Mario Marchand

Selon le responsable du volet québécois, Mario Marchand, la difficulté d’une telle certification tient au fait que « les données à venir ne sont pas encore connues. Il faut essayer d’en tester le plus possible par apprentissage profond pour que l’IA puisse réagir correctement à toutes sortes d’imprévus ».

Le chercheur donne d’ailleurs la Tesla en exemple. Si son système de pilotage automatique fonctionne généralement bien, il est arrivé qu’il ne réagisse pas de la bonne façon lors d’évènements imprévus, faisant des blessés et, parfois même, des morts. Dans l’aéronautique, avec des centaines de passagers, un tel scénario ne peut être envisageable. Il faut absolument avoir les bases pour parer à toutes éventualités.

« Il n’y a rien d’établi pour l’instant dans les logiciels appris par l’IA dans le secteur de l’aéronautique. Nous sommes à l’étape de l’étude sur ce qui existe pour en faire des normes internationales sur lesquelles les entreprises pourront se baser pour mettre en place une intelligence artificielle dans les systèmes critiques », apporte M. Marchand. Ainsi, certains accidents causés par des erreurs humaines pourraient être évités grâce à l’IA dans les systèmes critiques.

3. La capacité d’interprétation

Les réseaux profonds appris à partir des données, bien que souvent performants, sont opaques et difficilement interprétables : il est difficile pour un humain de comprendre ce qui a mené le réseau de neurones à faire une prédiction pour une situation donnée.
Or, il est tout à fait capital de comprendre pourquoi une décision erronée a pu se produire, savoir comment le modèle peut être corrigé, et voir s’il n’y aurait pas un biais dans les données ou s’il faut revenir à l’apprentissage. Les chercheurs de l’équipe DEEL travaillent ainsi à obtenir des méthodes justificatives valables pour les décisions prises par les réseaux profonds.

4. « Privacy by design »

La sécurité des systèmes informatiques demeure au centre des préoccupations depuis plusieurs années. Si l’on pense en premier lieu à du détournement d’informations, cet axe met également de l’avant l’apprentissage collaboratif. Comme les technologies sont en développement pour l’instant, il convient de pouvoir travailler en collaboration avec plusieurs chercheurs pour obtenir des bases, sans toutefois que les données soient accessibles à des groupes nuisibles à la sécurité des programmes. C’est ce qu’on appelle le « Privacy by design », ou la « vie privée dès la conception ».

Sur le même thème :

Crédit Image à la Une : Free Pix