Une nouvelle étude suggère que l’utilisation de systèmes d’IA tels que ChatGPT pour composer des messages à des amis peut entraîner une diminution de la satisfaction et une augmentation de l’insécurité relationnelle si l’utilisation de l’IA est découverte.

L’utilisation d’applications d’IA comme ChatGPT pour composer des messages à des amis peut être une mauvaise idée, car une nouvelle étude a révélé que les gens perçoivent les messages générés par l’IA comme nécessitant moins d’efforts de la part de l’expéditeur.

Cette perception conduit à son tour les destinataires de messages générés par l’IA à être moins satisfaits de leur relation et plus incertains quant à leur amitié avec leur ami.

L’étude a porté sur 208 participants à qui l’on a présenté divers scénarios, tels que faire face à l’épuisement professionnel et avoir besoin de soutien, avoir un conflit avec un collègue et avoir besoin de conseils, ou avoir un anniversaire proche. On leur a demandé d’envoyer un message à leur ami fictif, Taylor, décrivant leurs sentiments.

Nous avons besoin de toi, Taylor

Les participants ont été informés que leur ami fictif Taylor leur avait envoyé une réponse, certaines d’entre elles ayant été assistées par une IA, certaines ayant été éditées par un membre d’une communauté de rédacteurs, et le reste ayant été rédigé exclusivement par Taylor.

Les résultats ont montré que les destinataires des réponses améliorées par l’IA les considéraient moins appropriées que celles qui avaient reçu des messages écrits uniquement par Taylor. Leur jugement n’avait rien à voir avec la qualité de la réponse en elle-même, mais seulement avec l’effort que Taylor était censé avoir fourni.

De plus, recevoir des messages améliorés par l’IA a rendu les participants moins satisfaits de leur relation et plus incertains quant à leur amitié avec Taylor. Curieusement, recevoir des messages écrits avec l’aide d’un autre être humain, au lieu de l’IA seule, a eu le même impact négatif sur la relation.

L’auteure principale Bingjie Liu, professeure adjointe en communication à l’Université d’État de l’Ohio, a une explication pour ce phénomène : elle pense que l’effort est crucial dans une relation, et utiliser l’IA ou l’aide de tiers pour créer des messages peut être perçu comme une prise de raccourci et un manque de sincérité.

À mesure que ChatGPT et des services similaires deviennent plus populaires, Liu soupçonne que les gens pourraient développer un comportement inconscient consistant à scanner les messages de leurs amis à la recherche de modèles d’IA, ce qu’elle appelle un « test de Turing dans l’esprit ». S’ils découvrent que le message a été écrit par une IA, cela pourrait nuire aux relations.

Quelques réflexions personnelles sur les messages de l’IA

J’ai déjà eu des pensées similaires concernant les suggestions de réponses générées par l’IA dans les messagers et les e-mails. Je dois admettre que je les utilise parfois, même pour répondre à mon partenaire ou à des amis. Cela peut sembler un raccourci paresseux qui ne donne pas à mon interlocuteur l’attention qu’il mérite à ce moment-là.

Curieusement, pour moi, ce sentiment augmente avec la disparité entre la réponse générée par l’IA et la réponse que j’aurais donnée si j’avais tapé moi-même. Il peut s’agir de différences très subtiles, comme l’utilisation d’un émoticône spécifique ou le fait de dire « Hey my friend » au lieu de simplement « Hi ».

Mais si la suggestion de l’IA est à 100 % correcte, comme « merci » quand tout ce que je veux vraiment dire, c’est « merci », ce sentiment disparaît.

Donc, ce n’est peut-être pas l’acte de taper, c’est peut-être si votre réponse est vraiment authentique pour vous et non seulement une approximation « assez bonne » de ce que vous vouliez dire.

Parce que si une approximation me semble étrange en tant qu’émetteur, elle peut sembler encore plus étrange pour le destinataire. Donc, notre effort peut consister à nous assurer de dire ce que nous voulons dire.