Rédaction
Date
Partenaire(s)
Pitchonair, une application d'intelligence cognitive dédiée à l'amélioration des compétences en communication verbale et non-verbale, a collaboré avec le CDRIN pour développer un prototype de solution d'acquisition de données non-verbales du visage et du corps. Cette innovation vise à enrichir les analyses personnalisées offertes aux utilisateurs, en capturant des expressions faciales et des mouvements corporels pour une évaluation plus approfondie des éléments de communication.
Pitchonair est une application d’intelligence cognitive qui permet de s’exercer en communication verbale et non-verbale. Ce produit est offert aux individus et professionnels. L’utilisateur, placé en contexte, enregistre une session de communication qui sera analysée dans le but de lui prodiguer des conseils personnalisés pour de meilleures présentations orales. Afin d’élargir le champ des informations recueillies et d’offrir de nouvelles opportunités à ses utilisateurs, Pitchonair a demandé au CDRIN d’établir un prototype de solution d’acquisition de données non-verbales du visage et du corps.
Segments actifs du visage
L’équipe du CDRIN, composée de Rafik Gouïaa et de Nolan Bublex, a décidé d’aborder ce défi par la détection de segments actifs du visage (Facial Action Units, en anglais). Il s’agit d’expressions de portions du visage (comme le front, les yeux, les joues et autres) susceptibles d’exprimer des émotions.
Pour y arriver, les chercheurs ont entraîné un modèle de réseau de neurones à reconnaître les segments actifs du visage à partir d’une base de données annotée comprenant des séquences vidéo de personnes exprimant des émotions. Ce modèle d’intelligence artificielle peut alors servir à détecter les mêmes données sur de nouvelles vidéos dans la plateforme de Pitchonair.
Les mouvements du corps
Puisque le haut du corps et les mains expriment aussi une large gamme de messages non-verbaux, un modèle d’intelligence artificielle a été entrainé pour détecter les mouvements d’un interlocuteur. L’objectif est d’ajouter des informations sur la gestuelle de l’utilisateur et d’offrir une analyse plus fine des éléments de communication.
L’ensemble de la preuve de concept démontre la faisabilité d’une approche fondée sur la détection de segments actifs du visage pour extraire des émotions. Quant à l’ensemble de l’analyse des données recueillies, elles font en ce moment l’objet d’une autre étude en cours avec Pitchonair. À suivre.