Pour concevoir des robots plus humains, les spécialistes en intelligence artificielle auraient intérêt à s’inspirer non seulement des programmes informatiques qui parviennent à imiter la communication humaine, mais ils devraient aussi tirer des leçons des humains qui s’expriment comme des robots. C’est du moins la suggestion faite par Catherine Lortie et Matthieu Guitton, du Centre de recherche de l’Institut universitaire en santé mentale de Québec, dans un récent numéro de la revue scientifique PLoS ONE.
   
Les deux chercheurs ont profité de l’existence d’une compétition internationale en intelligence artificielle pour apporter un nouvel éclairage sur l’imitation du langage humain par des robots. Depuis 1991, le concours Loebner invite les spécialistes à développer un programme capable de relever le test de Turing, du nom du mathématicien et logicien britannique qui l’a proposé en 1950. Selon Turing, si une machine pensait comme un humain, ses réponses à des questions devraient être indistinctes de celles fournies par une personne. Lors de la compétition Loebner, des juges qui communiquent avec des interlocuteurs par l’intermédiaire d’un ordinateur doivent déterminer si les réponses qu’ils reçoivent proviennent d’un humain ou d’un robot. La compétition en sera à sa 22e édition en mai prochain et la bourse de 100 000 $ promise au programmeur qui réussira à duper les juges est toujours sur la table.

Plutôt que de s’attarder aux réussites des robots qui parviennent à faire douter les juges, les chercheurs Lortie et Guitton se sont penchés sur les cas inverses: les humains que les juges estimaient être des robots. «Notre objectif était de mieux comprendre comment les juges déterminent ce qui est humain et ce qui ne l’est pas», résume Matthieu Guitton, professeur à la Faculté de médecine.

Les chercheurs ont analysé les caractéristiques du langage utilisé par neuf sujets qui avaient été classés comme des robots au moins une fois par des juges. L’étude détaillée de 57 dialogues totalisant 21 780 mots ne révèle pas de différences entre les sujets considérés comme robots et les sujets considérés comme humains au chapitre du nombre de mots utilisés, de mots par phrase, de phrases par réponse, d’expressions de courtoisie, de mots à connotation émotive ni dans le nombre d’erreurs dans les réponses. Par contre, les sujets risquaient davantage d’être catalogués comme machine si chaque réponse contenait moins de mots, moins d’articles et moins de longs mots.

Les chercheurs relèvent également que le comportement linguistique des juges change lorsqu’ils croient avoir affaire à un robot. Ils posent moins de questions, leurs phrases contiennent moins d’expressions cognitives (je pense, je crois, j’ai l’impression, etc.) et leur expressivité est différente. «Les humains qui sont confondus avec des robots en font trop, résume le professeur Guitton. Ils font trop de compliments, sont trop courtois, parlent trop de leurs proches et de leurs émotions. Un déséquilibre s’installe dans leurs échanges avec les juges et une perte de compréhension s’ensuit. Une fois que les juges croient avoir affaire à une machine, leur discours devient plus agressif et leur intérêt à poursuivre les échanges diminue. Le jugement sur la nature humaine d’un interlocuteur ne dépend pas uniquement de ses réponses. Il dépend aussi du juge.»

Matthieu Guitton estime que les informations de ce type sont précieuses pour améliorer la dimension «humaine» des applications qui font appel à la réalité virtuelle, notamment du côté des programmes de réadaptation. «Si on souhaite maintenir l’intérêt des patients et leur adhésion au traitement, il faut qu’ils aient l’impression que c’est un véritable humain qui leur donne des consignes et pas un robot.»