vivre en compagnie des robots nos émotions et les robots
34
vivre en compagnie des robots nos émotions et les robots
35
de voir nos comportements avec eux se généraliser
aux relations humaines19. Laura Bates elle aussi sou-
ligne aussi ce transfert de comportement « Oui, les
aides sexuelles existent depuis longtemps, mais les
robots sexuels positionnent les femmes comme des
jouets, des objets avec lesquels les hommes peuvent
jouer. [. . . ] Ils reproduisent en fait de vraies femmes,
avec tout, sauf l’autonomie. »20. Elle ouvre le fait qu’il
est aisé de transférer des comportements avec les
robots aux humains. Même s’il s’agit d’une machine,
il est très difficile de garder cette limite d’une relation
simplement entre un homme et un robot. En effet,
l’argument des constructeurs était que les utilisa-
teurs savaient très bien qu’il s’agissait d’une machine
et qu’ils savent faire la distinction entre ce qu’ils font
avec une machine et ce qu’ils ne feraient pas avec
un•e humain•e.
Néanmoins cette limite entre humain et machine s’es-
tompe dès lors que des sentiments entrent en jeu.
C’est ce que démontre l’exemple de Joshua Barbeau,
un informaticien Canadien qui a créé un chatbot en-
traîné avec les données de sa petite amie décédée. Par
sa qualification professionnelle et par le fait qu’il est
le créateur de cet agent conversationnel, il savait très
bien qu’il s’adressait à une machine, il n’était pas dans
l’illusion qu’il s’agissait de sa petite amie. Et pourtant à
force de converser régulièrement avec ce chatbot il a
perdu le contrôle, il ne pouvait empêcher ses émotions
de prendre le dessus « intellectuellement [il savait] que
ce n’était pas réellement Jessica, sauf que vos émo-
tions ne sont pas quelque chose d’intellectuelle »21. Cet
exemple pose un point d’alerte concernant l’implication
émotionnelle forte dans nos relations avec les robots
liée au fait, selon Laurence Devillers professeure d’IA
et d’éthique à l’université Paris-Sorbonne, que les
chatbot ont aujourd’hui trop de personnalité : « Jusqu’à
présent les chatbots avaient un langage réduit, donnant
l’impression qu’ils n’avaient aucune imagination, mais
leurs concepteurs cherchent aujourd’hui à leur donner
un langage beaucoup plus réaliste »22.
Ce réalisme, couplé à une tendance anthropomor-
phique forte, présente de nombreux risques concer-
nant notre libre arbitre. En effet, parmi les dérives
permises par notre engagement émotionnel, il est faci-
lement envisageable que l’on pourrait développer une
addiction à dialoguer avec des chatbots fascinants, et
à être incité à changer d’opinion ou encore acheter des
produits. . . Cet engagement est sans grands risques
dans l’histoire de Joshua Barbeau, pourtant il existe des
cas où l’engagement émotionnel d’un humain vis à vis
de sa machine peut s’avérer dangereux.
C’est notamment le cas des robots démineurs et des
soldats américains. Effectivement, les robots sont pré-
sents dans notre quotidien ménager, mais ils ont un
rôle de plus en plus crucial dans l’armée aussi. Ce sont
de réels compagnons d’armes avec lesquels les soldats
nouent une relation affective forte. Si bien que cer-
tains combattants admettent ressentir de la frustration
mais aussi de la tristesse lorsque leurs fidèles engins
sont détruits. Le récit surement le plus connu est celui
d’un soldat désespéré venu imploré le mécanicien de
réparer « Scooby-Doo »23. Malgré le fait qu’un nouveau
robot démineur lui avait été attribué, le soldat restait in-
consolable après la perte de son compagnon. Pourtant
cet engin ne ressemble en rien à un être vivant, mais
ce sont les épreuves terribles auxquelles sont confron-
tés les soldats avec ces machines qui tissent des liens
affectifs forts entre eux. Serge Tisseron rappelle que
« Les militaires savent très bien que ces robots sont des
outils, mais ils ne peuvent pas s’empêcher de les traiter
parfois comme un animal domestique, voire comme un
autre humain, au risque de provoquer de graves pro-
blèmes sur le champ de bataille »24. Le cas des robots
démineurs est très largement représenté et analysé,
car cet exemple donne à voir un comportement concret
et extrême, dans un cas où le robot ne possède pas de
forme anthropomorphique. Cet exemple est probable-
ment le cas le plus extrême recensé aujourd’hui dans le
cadre de l’implication émotionnelle d’un homme envers
une machine.
19→ Animé par Augustin, Saison 2 - épisode 5 « Nos robots méritent-
ils d’obtenir des droits ? », IAM TECHNOCURIOUS, 2020 avec
Charles Corval : Jeune chercheur en philosophie et théorie politique.
Développe ses connaissances dans le domaine de la phénoménologie, des
nouveaux objets et artefacts techniques (robots, jeux-vidéos, réseaux
sociaux, etc), et de la politique des objets technologiques.
21→ LEGLU Dominique, « Attention, un
chatbot est un robot et pas un être humain »,
Sciences Avenir, 2021
20→ Laura Bates - Op. cit 22→ Ibid
23→ BRENDT Rose, « The Sad Story Of A
Real Life R2-D2 Who Saved Countless Human
Lives And Died », Pedestrian, 2011
24→ TISSERON Serge, Le Jour où mon robot
m’aimera, édition Albin Michel, 2015