Un outil d’intelligence artificielle capable d’évaluer la sincérité des intervenants en temps réel fait son petit bonhomme de chemin, ayant d’ore et déjà été testé aux États-Unis.
C’est le rêve universel : pouvoir percer à jour les mensonges de son interlocuteur. Ce fantasme pourrait bien se concrétiser grâce à l’intelligence artificielle, et plus précisément à un outil baptisé Speechcraft Analytics.
Déjà testé aux États-Unis lors de la dernière primaire républicaine, ce système a analysé, phrase après phrase, la sincérité des candidats. Il fonctionne comme un détecteur de mensonges d’un genre nouveau, invisible, précis et redoutablement efficace, selon ses concepteurs.
« Notre IA combine le traitement du langage naturel avec la biométrie vocale pour mesurer ce qui ne peut être scripté : le stress, la confiance, l’hésitation, le rythme respiratoire, le débit, l’équilibre de présentation et la charge cognitive », explique l’entreprise sur son site web.
Autant de micro-indicateurs, discrets mais révélateurs. Car, souligne la société, « ils dévoilent l’état psychologique dissimulé derrière un langage maîtrisé ». Lorsqu’elle dispose d’archives suffisantes sur un même orateur, la plateforme peut en outre comparer ses interventions passées et présentes afin de repérer d’éventuelles variations comportementales synonymes d’un manque de sincérité.
Une technologie prometteuse, mais loin d’être infaillible
Si l’outil intrigue, ses créateurs invitent à la prudence. Scientifiquement parlant, l’intelligence artificielle ne détecte pas le mensonge en tant que tel : celui-ci relève d’une intention consciente, d’un choix moral. Ce que l’IA identifie, en revanche, c’est une réaction physiologique, en l’occurrence, le stress. Or, la corrélation entre stress et mensonge reste très imparfaite.
Un candidat sincère mais nerveux à l’idée de s’exprimer devant des millions de téléspectateurs pourrait ainsi se voir attribuer un mauvais score d’authenticité, simplement parce que ses cordes vocales se tendent sous l’effet du trac.
Un candidat honnête mais nerveux à l’idée de parler devant des millions de téléspectateurs pourrait ainsi récolter un faible score d’authenticité simplement parce que son trac altère sa voix. À l’inverse, un manipulateur aguerri, parfaitement maître de ses émotions, pourrait duper l’algorithme sans difficulté. « Ce n’est pas du 100 % », reconnaissent les développeurs, conscients des enjeux considérables liés à leur invention.
Des usages multiples et sensibles
Les cas d’usage identifiés par les fabricants du logiciel sont néanmoins nombreux et variés. Dans le domaine judiciaire, l’outil pourrait aider les juristes à évaluer la fiabilité d’un témoin à la barre. Les compagnies d’assurance, soupçonnant une fraude, pourraient l’utiliser pour analyser les déclarations d’un assuré.
Les analystes financiers, eux, pourraient l’employer pour décrypter les présentations de résultats de grandes entreprises et tester la sincérité d’un PDG lorsqu’il annonce une nouvelle stratégie. Mais c’est sans doute dans la sphère la plus intime que cette technologie pourrait connaître son plus grand marché, et poser les questions les plus épineuses.
Car rien n’empêcherait techniquement un conjoint de mauvaise foi d’enregistrer discrètement son partenaire et de soumettre l’enregistrement à l’algorithme pour obtenir un « score de sincérité ».
Un usage aussi redoutable que problématique, qui soulève d’ores et déjà des questions juridiques fondamentales : le droit à la vie privée, le consentement à l’enregistrement, la valeur probatoire d’un tel score devant un tribunal.