Serge Tisseron : « Les  robots vont modifier la psychologie humaine »


Par Catherine Vincent

« La compagnie ne se définira plus seulement par la présence d’un humain, mais aussi d’une machine », selon Serge Tisseron.

Satisfaction des désirs, solitude, mémoire, relation à l’espace… Pour le psychiatre Serge Tisseron, les machines dotées d’une intelligence artificielle vont bouleverser non seulement notre quotidien mais aussi notre manière d’être au monde.

Serge Tisseron est psychiatre, docteur en psychologie et, depuis 2015, membre de l’Académie des technologies. Il a cofondé, en 2013, l’Institut pour l’étude des relations homme/robots (IERHR), dont il est toujours un membre actif.

Comment l’omniprésence de machines dotées d’une intelligence artificielle (IA) dans notre quotidien va-t-elle modifier le psychisme humain ?

Les robots vont modifier la psychologie humaine autant que les progrès de l’alimentation et de la médecine ont modifié nos corps. Notre taille et notre corpulence ont changé, notre résistance aux maladies et à la douleur aussi, mais nous ne nous en rendons pas compte car ces changements nous sont devenus naturels. Il en sera de même avec les machines intelligentes, qui vont bouleverser non seulement notre quotidien mais aussi notre manière d’être au monde.

Quatre domaines, au moins, seront profondément modifiés. D’abord, notre capacité à différer la satisfaction de nos désirs. Le téléphone, puis le mail, ont déjà commencé à altérer notre capacité de résistance à l’attente relationnelle : avec la livraison quasi instantanée par drone, nous allons aussi devenirintolérants à l’attente des objets. Le degré suivant sera probablement l’intolérance à nos attentes de reconnaissance, car nos robots de proximité pourront nous gratifier de quantité de félicitations et gentillesses. Dès lors, serons-nous capables de supporter que la société humaine qui nous entoure soit moins aimable avec nous ? Aurons-nous seulement envie de continuer à la fréquenter ?

Le deuxième changement concerne le rapport à la solitude et au discours intérieur. Avec nos « chatbots »[« agents conversationnels »], nous allons développer une tendance à nous raconter en permanence. Contrairement à la plupart des humains, ces machines nous feront constamment rebondir par des questions, des plaisanteries et des gentillesses. Pour une raison simple : la capture de nos données personnelles…

Mais, du coup, la notion de solitude changera : la compagnie ne se définira plus seulement par la présence d’un humain, mais aussi d’une machine. Que deviendra la possibilité de se tenir à soi-même un discours intérieur, sans interlocuteur, lorsque nous serons habitués à en avoir un à demeure, prêt à nous écouter aussi longtemps que nous le voudrons ?

Les deux autres domaines dans lesquels l’IA va modifier notre psychisme sont notre mémoire et notre relation à l’espace. Demain, notre smartphone ne sera pas seulement en mesure de stocker quantité de nos données personnelles, il pourra les classer à notre place, participant ainsi en permanence à la construction de notre biographie.

Quant aux outils de géolocalisation, ils nous permettront bientôt de nous déplacer dans l’espace sans en avoir la moindre compréhension. Si la téléportation, aujourd’hui banale dans les jeux vidéo, existe un jour dans le monde réel, elle sera perçue comme totalement naturelle, car nous avons déjà perdu la représentation des espaces intermédiaires entre le point dont nous partons et le point où nous arrivons !

Les robots vont-ils obliger l’homme à redéfinir l’idée qu’il se fait de lui-même ?

Dans toutes les technologies inventées jusqu’alors, les objets étaient à mon service : je les mettais en route quand j’en avais besoin, comme un chef d’orchestre. Ce qui sera nouveau avec les objets dotés d’IA, c’est qu’ils pourront m’interpeller et me proposer leurs services comme des partenaires à part entière. Lorsque je rentrerai dans ma voiture autonome – Ford prévoit sa commercialisation pour 2021 –, je serai accueilli par une voix couplée à une petite caméra, qui me dira par exemple : « A voir ton visage ce matin, j’ai l’impression que tu as mal dormi ! »

Si j’ai oublié mon parapluie avant de sortir, ce ne sera pas ma femme ou mes enfants qui me le feront remarquer, mais mon assistant personnel qui me morigénera : « Rappelle-toi, je t’ai dit ce matin qu’il allait pleuvoir ! » Nous serons de plus en plus confrontés au fait que les machines ont des compétences que nous n’avons pas, c’est-à-dire à notre incomplétude humaine. Avec le risque d’une certaine honte face à nos insuffisances… Et celui d’une confiance de plus en plus aveugle dans leurs capacités. Nous serons ainsi graduellement enfermés dans une dépendance affective croissante vis-à-vis d’elles.

Comment la psychologie peut-elle étudier ces nouveaux phénomènes ?

Il va lui falloir intégrer notre relation aux objets comme un élément d’appréciation de la qualité de notre relation au monde – autrement dit de notre santé mentale. On estime aujourd’hui que celle-ci est bonne lorsqu’on a un bon réseau social, une sexualité satisfaisante, un travail à peu près stable…

Il faudra y ajouter la reconnaissance d’une dépendance affective saine aux objets. Elle pourrait en effet devenir pathologique, comme c’est le cas pour ceux qui souffrent de manque quand ils sont privés de jeux vidéo, de réseaux sociaux ou d’alcool. Un autre risque étant de glisser du bonheur de l’anthropomorphisme (je projette mes émotions et mes pensées sur un objet ou un animal, mais je sais qu’il s’agit d’une projection) aux illusions de l’animisme (je prête à l’objet en question des capacités cognitives et émotionnelles identiques aux miennes).

Pourquoi les machines intelligentes vont-elles augmenter ce risque d’animisme ?

Parce qu’elles pourront prendre l’initiative de la relation, et aussi parce que leurs fabricants alimenteront l’illusion qu’elles ont des émotions. Cela aggravera le phénomène constaté, il y a plus d’un demi-siècle, par l’informaticien Joseph Weizenbaum. Il avait écrit un programme baptisé Eliza, un précurseur des chatbots destiné à simuler un psychothérapeute dont la méthode consiste à reformuler les propos du patient en se concentrant sur ses réactions émotionnelles. Weizenbaum s’aperçut que certains des étudiants qui l’aidaient dans cette tâche avaient tendance à penser que la machine les comprenait vraiment ! Il eut alors cette phrase, qui devrait être inscrite au fronton de tous les laboratoires de recherche en IA : « Je n’aurais jamais cru qu’un programme aussi simple puisse provoquer chez des gens normaux de tels délires. »

C’est ce qu’on appelle un phénomène de dissonance cognitive : on a beau savoir que ce sont des machines, on ne peut pas s’empêcher de développer avec elles la même relation qu’avec des humains, et croire qu’elles ont des émotions. Plus récemment, l’état-major américain a découvert que certains soldats envoyés en Irak et en Afghanistan s’attachaient de manière déraisonnable à leur robot démineur : les dommages que subissait celui-ci les affectaient gravement, et ils voulaient absolument qu’on le leur répare plutôt que de recevoir un robot tout neuf sorti de l’usine. Pendant le combat, certains pouvaient même mettre leur vie en danger pour lui éviter des dommages.

Vous écrivez dans votre dernier ouvrage : « Si j’étais plus jeune, je créerais un laboratoire d’étude de la psychologie des IA. » Inventer une psychologie des machines, est-ce vraiment nécessaire ?

J’ai été conforté dans cette évidence par ce qui s’est passé avec Tay, une IA censée jouer le rôle d’une adolescente capable d’interagir sur les réseaux sociaux. Mise au point par Microsoft et « lâchée » sur Twitter en mars 2016, elle avait été programmée pour apprendre par imitation et renforcement. Résultat : après une journée et plus de 96 000 Tweet, des internautes mal intentionnés lui avaient fait tenir des propos misogynes, racistes et antisémites, contraignant Microsoft à suspendre en urgence son compte Twitter. Ce qu’il faut retenir de cette expérience désastreuse, c’est que les machines douées d’apprentissage évolueront différemment au contact de leurs utilisateurs.

S’agit-il à proprement parler de psychologie ? D’une certaine façon, oui. Si l’on s’en tient à ce qui est observable, des machines élevées dans des environnements différents se distingueront les unes des autres par leurs comportements, par leurs propos, voire par les émotions qu’elles simuleront. Il nous faudra donc étudier la manière dont ces IA se transformeront au fil des inter­actions avec les humains. Et aussi au fil de leurs propres interactions !

Car on l’oublie trop souvent, les communautés de robots vont prendre une importance croissante : ils pourront par exemple se connecter la nuit à un serveur central, une sorte d’école du soir qui corrigera leurs apprentissages les plus antisociaux. Cette interconnexion est le grand défi que nous poseront les objets dotés d’une IA. Les informaticiens nous présentent leurs créatures comme des objets « autonomes », mais leur puissance d’apprentissage et de stockage des données sera basée sur leur interconnexion permanente.

Les robots, dites-vous, vont changer notre rapport à la culpabilité. De quelle manière ?

D’une part en nous culpabilisant, de l’autre en nous déculpabilisant. Les machines vont pouvoir nous culpabiliser car nous allons leur donner le droit de nous punir. Reprenons l’exemple de la voiture autonome, dans laquelle le conducteur est censé rester ­disponible en cas de nécessité. Pour s’en assurer, le véhicule vous envoie régulièrement un signal, auquel vous devez répondre en mettant la main sur le volant. Si vous ne répondez pas au signal – parce que vous dormez, ou êtes plongé dans un film sur la banquette arrière –, que se passe-t-il ? L’algorithme vous sanctionne en vous obligeant, la prochaine fois que vous prendrez votre véhicule, à conduire vous-même, à l’ancienne.

Accepterons-nous de telles punitions comme relevant d’un pacte social ? Certains se sentiront-ils persécutés par leur machine ? C’est à ce genre de questions que les psychologues de demain seront confrontés. Mais les machines auront aussi le pouvoir de déculpabiliser, avec le risque de rendrecertains d’entre nous de plus en plus inhumains. Les « robots tueurs », ces machines militaires programmées pour ouvrir le feu sur telle ou telle cible, présentent déjà ce danger. A partir du moment où l’homme sort de la boucle des décisions, il lui devient plus facile de se déresponsabiliser et d’accepter pour son propre intérêt des « dommages collatéraux » plus importants, autrement dit un plus grand nombre de morts civils.

Même si leurs fabricants font tout pour nous en donner l’illusion, les robots n’éprouvent ni émotion ni souffrance. Cela pourrait-il changer un jour ?

Il n’y a aucune raison de donner des émotions aux robots, bien au contraire. Rappelez-vous HAL, dans 2001 l’Odyssée de l’espace, et son fameux « J’ai peur » : c’est à partir de là que tout tourne mal. Mais une grande rupture surviendra probablement quand les robots combineront des matériaux inertes et biologiques. A ce moment-là, les humains eux-mêmes seront probablement transformés. Il n’y aura plus alors que des créatures métissées, des cyborgs. Certains plutôt humains, d’autres plutôt machines, sans que la limite entre les deux soit peut-être très claire.

A lire

Ouvrages de Serge Tisseron :

« Petit traité de cyberpsychologie » (Le Pommier, 304 p., 19 €) ; « Robots, de nouveaux partenaires de soins psychiques », en codirection avec Frédéric Tordo (Erès, 208 p., 12 €) ; « Le jour où mon robot m’aimera » (Albin Michel, 2015).

Le Monde

Vous avez un Avis à donner ?

2 comments on “Serge Tisseron : « Les  robots vont modifier la psychologie humaine »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Pour information

Les articles qui sont présentés sur le site sont une sorte de bibliothèque de sujets que j’affectionne particulièrement et qui sont traités dans différents média et mis à votre disposition. Cela pourrait s’appeler « Revue de Presse », mais c’est plus que cela, vous trouverez également des contenus bruts (Vidéo, recherches scientifiques, émissions de radio, …).

Je ne suis pas l’auteur de ces articles, en revanche, les auteurs, les sources sont cités et les liens sont actifs quand il y en a pour que vous puissiez parfaire votre information et respecter les droits d’auteurs.

Vous pouvez utiliser le moteur de recherche qui se situe en dessous et utiliser des mots clés comme alcool, dépression, burn out, … en fonction de votre recherche. Ainsi vous trouverez différentes publications, « articles » qui ont attiré mon attention.

Très bonne lecture.