Un bracelet intelligent pour analyser nos interactions

Un bracelet intelligent pour analyser nos interactions

Depuis plusieurs années, de nombreuses technologies se donnent comme objectif de participer au bien-être physique de leurs usagers. Certains de ces objets connectés peuvent surveiller la fréquence cardiaque de celui qui la porte, et l’un d’entre eux peut déjà mesurer la saturation en oxygène dans le sang. Mais qu’arrive-t-il lorsque ces appareils prétendent contribuer à la santé mentale ?

La compagnie américaine Amazon a lancé le 27 août dernier son nouveau bracelet et son application Halo. « Nous utilisons l’expertise d’Amazon en matière d’intelligence artificielle et d’apprentissage automatique pour offrir à nos clients une nouvelle façon de découvrir, d’adopter et de maintenir des habitudes de bien-être personnalisées, » explique Dr Maulik Majmudar, responsable de l’aspect médical du bracelet, dans le communiqué publié par la compagnie.

UN OUTIL POUR LA SANTÉ 

Comme plusieurs accessoires connectés, le bracelet Halo offre plusieurs données à l’utilisateur par rapport à sa santé. Il présente entre autres le rythme cardiaque, la qualité du sommeil ainsi que l’intensité des mouvements durant un exercice. Un système de points permet d’ailleurs au client d’évaluer son niveau d’activité physique.

L’application Halo se sert également de l’intelligence artificielle pour certaines de ses fonctions. Grâce à la caméra d’un téléphone, les algorithmes peuvent représenter le modèle 3D du corps de l’utilisateur. Il peut aussi obtenir son pourcentage de masse graisseuse, et visualiser l’apparence de son corps selon la fluctuation de cette mesure.

UN BRACELET À L’ÉCOUTE

Le bracelet ne se penche pas seulement sur la santé physique de ses utilisateurs. Sa fonction Tone contribuerait également au bien-être social et émotionnel. En effet, ce système d’analyse vocal permettrait d’améliorer la communication ainsi que les relations interpersonnelles.

Pour activer cette fonction, le client doit d’abord se créer un profil sur l’application. En énonçant quelques phrases, il entraine ainsi son bracelet à reconnaitre uniquement sa voix. Ensuite, l’appareil travaille en arrière-plan et étudie certaines conversations tout au long de la journée.

Tone a recours à des technologies avancées de traitement de la parole basées sur “l’apprentissage machine”. Des algorithmes de détection permettent d’abord d’éliminer les bruits de fond et de capter la voix du client. Ensuite, l’IA se sert de ces extraits afin d’analyser son pitch, son intensité, son tempo et son rythme. Grâce à ces informations, elle peut finalement prédire la façon dont les autres percevraient et décriraient le ton utilisé.  

UNE AIDE À LA COMMUNICATION

Ultimement, le but du bracelet Halo serait de permettre aux utilisateurs de reconnaitre leurs habitudes de communication, et de les améliorer. Il leur propose ainsi une description sommaire de leurs interactions de la journée. Par exemple, l’application peut souligner que le matin, l’usager semble calme, heureux et chaleureux. Au contraire, il peut faire remarquer comment le stress a un impact sur ses discussions.

« L’idée en soi de prendre conscience du ton de voix utilisé dans ses communications pour mieux comprendre ses émotions et l’effet produit sur les autres afin d’améliorer ses interactions est intéressante. Cela pourrait peut-être être un point de départ et aider certaines personnes qui ont plus de mal à identifier leurs émotions, » explique la psychologue Marie-Anne Sergerie.

UNE ATTEINTE AU BIEN-ÊTRE

Ce type de technologie peut cependant engendrer certaines problématiques pour l’utilisateur. Son usage à long terme pourrait, par exemple, avoir des conséquences sur leur autonomie. En effet, Mme Sergerie souligne l’importance de ne pas se fier uniquement aux résultats obtenus par le bracelet. « Le bracelet semble un indicateur parmi d’autres, mais l’individu reste la meilleure personne pour identifier comment elle se sent, et si ses besoins sont en souffrance ou non. Car l’identification des émotions est la clé qui permet ensuite de mieux répondre à ses besoins », mentionne-t-elle. 

L’analyse constante des interactions avec les autres peut également provoquer un stress important chez le client. « Imaginez l’application qui vous dit qu’avec telle personne, à ce moment-là, vous n’avez pas eu le bon comportement, car elle a détecté une émotion de frustration. L’utilisateur doit vivre avec ce genre de diagnostic, seul, face à sa machine, et sans explication des mesures. Et il doit lui faire confiance, sinon ça ne sert à rien, » explique Marc-Antoine Dilhac, professeur de philosophie à l’Université de Montréal et instigateur de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle.

UN PROBLÈME D’INTERPRÉTATION 

Les biais discriminatoires sont des enjeux éthiques récurrents lorsqu’il est question d’intelligence artificielle. La technologie utilisée par Amazon ne fait pas exception à ce sujet. L’interprétation pourrait par exemple être complexe pour quelqu’un qui parle avec un accent, ou qui s’exprime dans une langue seconde. 

« Certaines personnes pourraient avoir un très mauvais service, simplement parce que leurs habitudes sociales et culturelles ne sont pas correctement détectées par la machine. […] Par exemple, certaines catégories sociales ont tendance à développer une manière de parler qui peut paraitre agressive pour d’autres, sans que ça ne dise rien sur leur agressivité ou sur la potentielle conflictualité entre deux personnes qui interagissent, » souligne le professeur.

UN AVENIR PROCHE

Même si les clients consentent aux conditions d’utilisations, l’enjeu du respect de la vie privée reste bien présent lui aussi. Dans ce cas-ci, le problème va d’ailleurs plus loin que ça. En observant et analysant nos émotions, le bracelet Halo s’introduit dans l’intimité des personnes. « C’est-à-dire qu’on entre vraiment dans ce qui nous définit en tant que personne, et ce genre d’intrusion, c’est ça la violation de l’intimité. […] C’est comme si les émotions pouvaient être un objet parmi d’autres, comme la performance sportive. On nous apprend à contrôler cet objet, comme on nous apprendrait à utiliser un clavier ou une guitare, » souligne Marc-Antoine Dilhac.

Il soulève finalement un enjeu lié à l’exploitation des données obtenues par le bracelet. En effet, ces informations pourraient représenter une denrée rare pour plusieurs entreprises. « Si on ne fait rien du point de vue légal et éthique, si on n’a pas une législation qui soit ferme là-dessus, demain c’est dans les recrutements que ça va être utilisé. Ce genre de technologie du traitement émotionnel va se retrouver dans des services ou des compagnies qui vont pratiquer une véritable discrimination, » conclut-il.

Ce futur décrit par M. Dilhac n’est toutefois pas si loin. John Hancock, filiale américaine de Manuvie, a récemment conclu un partenariat avec Amazon. L’assureur encourage donc ses clients à utiliser le bracelet Halo. Les résultats obtenus sont partagés avec la compagnie, qui récompense les utilisateurs grâce à un système de points. À suivre!