De la post-vérité à la post-empathie ?

Dr. Todd Essig
 

La post-vérité va-t-elle engendrer la post-empathie alors que la société passe des médias imprimés aux médias numérisés ? La psychanalyse peut-elle minimiser les pertes ? Serait-ce à nous d'agir ?

0
Comments
1222
Read

La « post-vérité » et les « infox » ou « fake news » peuvent être considérées à la fois comme le reflet des changements radicaux qui affectent le journalisme et comme une nouvelle tendance de fond. Selon les économistes (père et fils) Richard et Daniel Susskind (2015), l’ensemble des professions de service, des médias au droit, en passant par la santé (et, oui, cela concerne aussi la psychanalyse) seront confrontées à un futur très différent. Ces auteurs affirment que l'intelligence artificielle (IA), les mégadonnées numériques ou « big data » et la mise en réseau du monde vont modifier ces pratiques professionnelles d'une manière qui va bien au-delà de simples gains d'efficacité. Elles devront (nous devrons) en effet affronter un avenir fondamentalement transformé, dans lequel des systèmes complexes, supportés par la technologie, répondront à la demande de services qui appelaient jusqu’à présent des solutions personnalisées, supportées par des individus.

« Post-vérité » et « infox » sont d’abord une conséquence de la lutte d'une profession, celle des journalistes, pour s’adapter à la mutation rapide de l'architecture médiatique de la société, induite par le passage de l'imprimé au numérique. Le fait est que le journalisme n'a tout simplement pas été en mesure de suivre le rythme. Mais cette transformation touche toutes les professions de service et aura donc certainement des conséquences dans d'autres domaines, y compris le nôtre. Je pose donc la question : qu'est-ce qui est appelé à devenir à son tour « post » ou « faux » ? Quelle sera la prochaine perte après celle des faits et de la vérité ? Quelles autres valeurs et expériences risquent-elles de se retrouver sur le billot numérique ? Et que pouvons-nous apprendre des difficultés rencontrées par les journalistes pour s’adapter ?
 
Je suis porté à penser que l'empathie, l'essence de la relation Je-Tu, qui est au cœur de la psychanalyse contemporaine (Buber, 1938/1923 ; Greenberg & Michell, 1983), est en première ligne pour devenir « post ». Tout comme, en pleine transition vers une architecture numérique de l'information, le journalisme mute en étant confronté à l’augmentation considérable des « infox » de la « post-vérité », les psychothérapies, y compris la psychanalyse, subissent une transformation comparable où l'empathie se retrouve en danger. Je ne veux pas simplement laisser entendre que nous sommes au bord du gouffre de la post-empathie et de l'intimité artificielle, car il est évident pour moi que nous y sommes (Essig, Turkle & Russell, 2018). Je voudrais plutôt suggérer que la psychanalyse est à un carrefour, et qu’il nous revient d’apporter ou non notre pierre pour faire barrage à la montée de la post-empathie et de l'intimité artificielle, avant qu'il ne soit trop tard. Nous nous trouvons dans une position privilégiée où nous pouvons à la fois célébrer les potentialités de la transition culturelle vers une architecture numérique de l’information et protéger le caractère sacré de l'empathie et de l'intimité directes, non médiatisées par la technologie. Bien sûr, pour qu’une telle pratique du « en même temps » soit largement acceptée et puisse aider l’ensemble de la communauté psychanalytique dans ses choix le chemin sera difficile et peut-être impraticable.

 
Pour être clair, parler de « post-vérité » ne suppose pas que les faits et la vérité cessent d’exister (et il en va de même de l'empathie face à la post-empathie). Les « faits » n'ont simplement plus l'importance qu'ils avaient autrefois. La vérité n'est plus valorisée comme elle l'était. Le journalisme professionnel traditionnel, la « presse libre », portée par l'idéal démocratique, avaient pour mission de filtrer la réalité de façon objective. L'éthique du journalisme était là pour protéger la vérité. Les médias iconiques traditionnels pouvaient donc être crus quand ils présentaient des vérités dérangeantes. Et c'est encore le cas pour certains. Mais les réseaux sociaux, l'intelligence artificielle (IA), les canaux de diffusion décentralisés, la pression des entreprises soucieuses de leurs profits et la possibilité de créer en quelques clics des faux indiscernables ont engendré un paysage médiatique où la réalité est filtrée pour confirmer les préjugés et renforcer l'identité du groupe auquel on se réfère. Il suffit désormais que les choses aient l'air « vraies ». L'exploitation des préjugés pour « attirer les regards », est désormais au centre de l'action. Bien sûr, il existe toujours des journalistes qui recherchent la vérité et les vraies informations. Mais les médias iconiques actuels sont d’abord là pour divertir, apaiser et offrir une confirmation à des croyances préexistantes. Les vérités qui dérangent sont rejetées comme s’il s’agissait d’« infox ». L'objectif initial se perd.
 
De 2007 à la survenue de la pandémie de Covid 19, j'ai vu de l'intérieur le journalisme perdre son emprise sur la vérité. Parallèlement à ma pratique d’analyste, j'ai écrit plusieurs centaines de chroniques comme commentateur des évolutions technologiques en santé mentale, d'abord pour la start-up de l’information True/Slant, puis pour Forbes, après son rachat par ce média (Essig, 2020). J’ai vu une profession ébranlée par la transformation numérique, où toutes les versions de la réalité étaient à présent disponibles en un clic. Les écrivains et les rédacteurs se débattaient contre cette nouvelle concurrence biaisée pour capter l'attention du public. Et, comme eux, j'étais payé en fractions de centimes en fonction du nombre et de la catégorie de lecteurs qui cliquaient sur mes articles.

J’ai très tôt commencé à travailler avec deux autres auteurs [1] qui essayaient de percer les mystères de l’optimisation des moteurs de recherche ou SEO (search engine optimization), et recherchaient les ingrédients nécessaires pour qu’un contenu devienne « viral ». Nous suivions de près les indices de nos publications, heureux lorsque les chiffres atteignaient des dizaines ou des centaines de milliers, sinon plus, et déçus quand un article dont nous étions fiers ne gagnait pas en popularité. Et ce que j'ai appris en cherchant ainsi à « attirer l’attention » des lecteurs est rétrospectivement assez évident : une vérité non relayée est aussi peu influente qu’une vérité jamais révélée et toute vérité ou information réelle trop en contradiction avec les croyances ou les préjugés préexistants du lecteur sera ignorée. Les gens se désintéressent des faits si en prendre connaissance, et encore plus accepter leur réalité, suscite chez eux ne serait-ce qu’un léger inconfort. Après tout, pourquoi faire cet effort quand un clic suffit pour accéder à une version apparemment tout aussi plausible qui vous procure un sentiment d’autosatisfaction et vous conforte dans votre vie et dans les décisions que vous prenez. Apparemment, dans notre monde fait de post-vérités et de fausses nouvelles, le seul « journal officiel » qui compte est celui qui vous fournit les « vérités » que nous voulons entendre.
 
Je pense que l’empathie va devoir faire face à un futur comparable, où elle ne sera pas valorisée, où les gens seront de plus en plus indifférents à l'expérience et aux conséquences d'une véritable intimité avec une autre personne. Comment cela va-t-il se produire ? L'empathie deviendra peu à peu « post », pour des raisons similaires de recherche du confort et de la commodité. Au bout du compte, les processus humains d'empathie, qui prennent du temps, sont souvent désordonnés et parfois malaisés, apparaitront anachroniques et inefficaces par rapport à ce que peut proposer l'IA alimentée par les « big datas ». Ce changement d’échelle des valeurs, associé aux développements technologiques, sont les deux moteurs de l'émergence d'un monde d'intimité artificielle post-empathique. (Essig, Turkle & Russell, 2018). Ce qui nous amène à ces questions centrales : laisserons-nous sans réagir le Je-Cela noyer le Je-Tu dans un flot d'empathies simulées, médiatisées par la technologie et, dans le cas contraire, que devons-nous faire ?
 
Il existe déjà de nombreuses préfigurations de la post-empathie. Les simulations de compréhension empathique créatrices d’habitudes se reflètent à travers la reconnaissance subite ressentie lorsqu’à la faveur d’un achat en ligne on se voit recommander quelque chose qu’on ignorait même désirer ; dans cette satisfaction éprouvée quand, à l’instar d’un ami, votre compte Spotify vous recommande un nouveau morceau, source de plaisir ; dans cette joie que procurent les vidéos TikTok personnalisées ou les suggestions de Netflix pour notre prochaine émission préférée (Pieraccini, 2021 ; Schrage, 2020).

Mais la post-empathie va déjà bien au-delà de ces programmes de recommandation toujours plus présents et plus efficaces. Des simulations de relations existent déjà [2]. Replika [3] est un robot de discussion « ami », reposant sur l'IA. Le site associé vante ce « compagnon IA qui se soucie de vous, est toujours là pour vous écouter et vous parler, est toujours de votre côté ». D’aucuns ont d’ores et déjà des échanges émotionnels intenses avec ce programme, y compris des hommes qui créent ainsi des petites amies IA et en viennent, pour certains, à les maltraiter ensuite verbalement (Bardhan, 2022). Dans le domaine de la santé mentale, il y a l’exemple de Woebot [4], un robot de discussion alimenté par l'IA qui propose des séances de TCC (thérapie comportementale cognitive) sans l'intervention d'un thérapeute humain. Son site annonce avec satisfaction : « Bienvenue dans l'avenir de la santé mentale ». Mentionnons enfin Elle  [5], un avatar vidéo reposant sur l'IA et adapté au traitement des vétérans souffrant de dépression et de syndrome de stress post-traumatique. Cette sorte de conseil sans présence humaine de l'autre côté de l'écran est déjà une réalité. Et comme les technologies de simulation vidéo ou « deepfake » deviennent toujours plus réalistes, il sera de plus en plus facile d’être confondu sans même se soucier de savoir si une séance se déroule avec un autre humain ou si le « fournisseur » est un programme d'IA. Cela ressemble davantage, j’en suis conscient, à de la science-fiction, à une dystopie trop absurde pour être considérée sérieusement comme un futur possible, sinon probable, mais je soutiens que les personnes ayant un esprit enclin à la psychanalyse choisiront bientôt une forme de téléanalyse produite par l’IA plutôt qu’une cure avec un analyste.
 
Bien sûr, aucune simulation d'IA sur écran ne pourra jamais restituer entièrement l'attention créative, intuitive et authentique prodiguée par un psychanalyste présent physiquement, ou par le biais d’un écran. Mais cette objection omet l'essentiel des leçons de la post-vérité. Pour que la post-empathie triomphe, il n'est pas nécessaire que la technologie produise une simulation indétectable. La post-vérité montre que de nombreuses personnes rechercheront une séance post-empathique produite par l'IA, non pas parce qu'elle est identique à une séance avec un humain, mais parce qu'une fois devant un écran, le plus facile et le plus pratique deviennent irrésistibles (Alter, 2017). Quand les gens se seront habitués à ne plus faire la différence entre une telle thérapie sur écran et la recherche d'une aide auprès d’une personne, alors tout chevauchement significatif avec la réalité sera suffisant. Lorsque la valeur unique de l'empathie authentique et pleinement incarnée sera dévaluée, beaucoup choisiront un traitement de plus en plus sophistiqué, pratique et peu coûteux par un programme d'IA, aussi limité soit-il, plutôt qu'une thérapie prodiguée par une personne, parce qu’ils se seront habitués à ne plus accorder de prix à l'expérience riche et désordonnée de l'empathie entièrement et mutuellement incarnée...

Tout comme des journalistes qui se battent encore pour protéger les faits et la vérité, je pense que les psychanalystes doivent se joindre à la lutte pour préserver la richesse de l’empathie incarnée, celle qui repose sur la mise en adéquation des affects, les imitations implicites, les synchronies interactives, la disponibilité relationnelle et d'autres processus possibles uniquement si les individus sont personnellement en relation et pas face à un écran. Et c'est là qu'intervient l’idée du « en même temps ». Je considère que la seule façon de préserver l'empathie consiste à tirer pleinement parti des possibilités offertes par la nouvelle architecture numérique de l'information et à mettre tout en œuvre pour protéger la nature sacrée des relations empathiques, possibles seulement si les personnes se retrouvent physiquement et de façon simultanée en un seul et même lieu.
 
L'avenir de notre profession pourrait bien dépendre de ce « en même temps ». Deux risques se font alors immédiatement jour. Si nous ne parvenons pas à prendre pleinement la mesure des différences entre ce qui se passe devant un écran et ce qui peut seulement avoir lieu en présence d’une personne, nous nous rapprochons sans le vouloir du monde post-empathique des psychothérapies reposant sur l'IA, celui de la psychanalyse sans analyste. Les inévitables pertes et limites de la relation par écran interposé dans le cadre de la téléanalyse ou de la téléthérapie, doivent être explicitement identifiées, tant en termes d’organisation que de clinique [6]. Mais nous risquons aussi d’accélérer le passage à un monde post-empathique en n'appréciant pas, par ailleurs, la richesse et la profondeur de l'expérience possible devant un écran. Nous serions alors semblables à une agence de presse insistant sur le fait que le papier et l'encre sont indispensables pour mériter le nom de « journal ». Si la psychanalyse veut continuer à se développer peut-être lui suffit-elle de pratiquer radicalement ce « en même temps », en embrassant les promesses de la technologie tout en prenant l’entière mesure de ce qui est seulement possible quand les gens sont dans une même pièce.
 
Malheureusement, ce « en même temps » n'est pas encore très répandu en psychanalyse. Au lieu de cela, ceux qui se focalisent sur un aspect ou un autre sont trop nombreux. Beaucoup prônent ce qui peut être vu comme un refus de participer au monde tel qu'il est. En tant que membre du groupe de travail de l'API sur les analyses à distance dans le cadre de la formation, j'ai vu de nombreux collègues tracer une ligne infranchissable. Selon eux, sans présence physique dans la même pièce, rien de ce qui donne sa vraie valeur à une psychanalyse ne saurait se produire. À l’image des moines qui, après l'invention de la presse à imprimer, ont affirmé que seules les copies manuscrites des écritures avaient de la valeur, ne pas reconnaître les possibilités des supports numériques dans les cures psychanalytiques ne fera que nous éloigner davantage des personnes qui pourraient bénéficier des soins que nous prodiguons.
 
D'autres, à l’inverse, plongent la tête la première dans toutes les possibilités technologiques du moment, apparemment sans savoir à quel point les eaux peuvent y être peu profondes. C'est ce qu’a fait l'APsaA (American Psychoanalytic Association) avec les normes et directives qu’elle vient d’adopter. Celles-ci ne reconnaissent explicitement que les avantages de l'enseignement à distance dans la formation psychanalytique et font de la téléanalyse des candidats un choix comme un autre. L’incarnation partagée y perd l’essentiel de sa pertinence – voire constitue un inconvénient inutile – ce qui nous rapproche d'un monde post-empathique.
 
En conclusion, la leçon à tirer de la post-vérité et des infox est que pour combattre le probable développement de la post-empathie, notre champ d’action, celui où planter notre drapeau et lutter, ne concerne pas les différences évidentes entre l’image générée par un programme et celle générée par une personne. Il porte sur la différence entre être présent à l'écran et être présent physiquement. Pour parvenir à nos fins, il s’agit donc de prendre à bras le corps toutes les possibilités d’offrir une thérapie psychanalytique par le biais d’un écran et toutes les pertes, limites et inévitables dangers associés. Si nous ne protégeons pas l'empathie incarnée, qui le fera ?

 
[1] Il s’agit de Jeff McMahon, qui se consacre aux technologies vertes (http://forbes.com/sites/jeffmcmahon) et de David DiSalvo, spécialiste des sciences et de la santé (http://forbes.com/sites/daviddisalvo). Quant à mes propres articles, ils sont disponibles sous ce lien : https://www.forbes.com/sites/toddessig.
[2] Pour une vision particulièrement effrayante de ce qui nous attend, voir David Levy qui, dans son article Love and Sex with Robots, décrit un avenir proche où les personnes seules ou simplement intéressées tomberont amoureuses de leurs robots sexuels ou sexbots « émotionnellement intelligents » (voir aussi Knafo & Bosco, 2016).
[6] Pour une description du va et vient clinique paradoxal consistant à être à la fois immergé dans une relation analytique médiatisée par la technologie et conscient de ses limites et de ses pertes, voir Essig & Russell, 2021.
 
Références
Alter, A. (2017). Irresistible: The Rise of Addictive Technology and the Business of Keeping us Hooked. Hamondsworth: Penguin.
Bardhan, A. (2022). Men are creating AI girlfriends and then verbally abusing them. Futurismhttps://futurism.com/chatbot-abuse, téléchargé le 20 janvier 2020.
Buber, M. (1938). Je et Tu (traduction Geneviève Bianquis). Paris: Aubier (texte original en allemand, Ich und Du, 1923).
Essig, T. (2020). ‘Training Done? Write!’ A response to Alexander Stein. Psychoanalytic Perspectives, 17(2), 173-182.
Essig, T., & Russell, G. I. (2021). A report from the field: Providing psychoanalytic care during the pandemic. Psychoanalytic Perspectives, 18(2), 157-177.
Essig, T., Turkle, S. & Russell, G.I. (2018). Sleepwalking towards artificial intimacy: How psychotherapy Is failing the future. https://www.forbes.com/sites/toddessig/2018/06/07/sleepwalking-towards-artificial-intimacy-how-psychotherapy-is-failing-the-future/
Greenberg, J. R., & Mitchell, S.A. (1983). Object Relations in Psychoanalytic Theory. Cambridge, MA: Harvard University Press. 
Knafo, D., & Bosco, R.L. (2016). The Age of Perversion: Desire and Technology in Psychoanalysis and Culture. London: Routledge.
Levy, D. (2007). Love and Sex with Robots: The Evolution of Human-Robot Relationships (p. 352). London: HarperCollins.
Pieraccini, R. (2021). AI Assistants. Cambridge, Mass.: MIT Press
Schrage, M. (2020). Recommendation Engines. Cambridge, Mass.: MIT Press.
Susskind, R. E. & Susskind, D. (2015). The Future of the Professions: How Technology will Transform the Work of Human Experts. Oxford University Press, USA.

Traduction: Jean-Léon Muller
 

Du même auteur:
 


Star Rating

12345
Current rating: 1 (2 ratings)

Comments

*You must be logged in with your IPA login to leave a comment.