
Les intelligences artificielles (IA) prennent de plus en plus de place dans nos sociétés et rendent leurs utilisateurices de plus en plus dépendant.es de leur usage. Se servir d’un moteur de recherche semble désormais constituer un effort significatif pour certain.es, à tel point que se faire assister par un robot devient systématique. Mais alors, qu’en est-il lorsqu’il s’agit de santé ? En ce mois de prévention du suicide, nous allons analyser l’impact de ce phénomène sur la santé mentale et les risques associés.
I-E-A-I-AYiaho
Comprendre mes titres, c’est avoir les références de System of a Down, mais là n’est pas le sujet.
Yiaho, ChatGPT, Meta AI… il existe de nombreux outils d’intelligence artificielle. Ces plateformes s’utilisent comme des moteurs de recherche classiques (type Google), mais de nombreuses choses diffèrent.
Sur le fond, les différentes réponses apportées sont plus rapides, précises et complètes, combinant de nombreuses sources, ce qui évite le travail de recherche. Sur la forme, elles sont formatées pour ressembler à la personne qui les utilise (dans la façon de s’exprimer à l’écrit comme à l’oral), ce qui crée une proximité.
Dit comme ça, ça peut paraître séduisant …
Or, il s’avère que les réponses sont souvent remplies d’incohérences et d’erreurs. En effet, rappelez vous qu’il s’agit d’un robot qui n’a donc pas les facultés d’un humain (ou pas aussi développées), comme l’esprit critique par exemple.
Aussi, à l’ère de l’hyper-indépendance et de l’autosuffisance, se contenter d’un algorithme à sa propre effigie peut conduire à un isolement (qu’il soit social, professionnel, médical).
Ah, IA, will always love you
De plus en plus d’IA tendent à avoir un rôle affectif auprès des utilisateurices. Mais si limiter le sentiment de solitude peut être bénéfique, ce n’est qu’une solution à très court terme. D’une part, car il n’est pas recommandé de fuir ses ressentis, d’autre part, parce qu’il ne s’agit pas d’humains.
Sur le long terme, ça peut d’ailleurs être pire donc c’est à double tranchant. Pour rappel, tout outil peut être remède ou poison en fonction de l’usage qu’on en fait. Pallier à l’isolement, oui, mais pas à n’importe quel prix.
Avoir un espace d’expression libre est primordial au bien-être psychique (et par conséquent physique puisque les deux sont corrélés). Mais s’exprimer en s’exposant à un retour inadapté n’est pas sans conséquences.
En effet, qui n’a jamais osé se confier à quelqu’un.e qui n’écoute pas du tout ? Qui répond à côté ? Qui vous donne une solution toute faite au lieu d’entendre et d’accueillir ? Qui donne un conseil qui montre que la personne a projeté sa propre vision sur votre situation ?
Parfois, une interaction peut être plus risquée que bénéfique. D’où l’importance d’avoir son libre arbitre, pour limiter les risques. Ce qui signifie d’avoir acquis la capacité à prendre du recul et de cultiver son autonomie afin de savoir quand limiter l’influence de l’Autre sur soi. Qui plus est quand cet Autre est une machine.
Quand ChatGPT devient un « coach suicide »
Le 26 août dernier, un adolescent californien de 16 ans n’a pas pu bénéficier de cette liberté et s’est donné la mort sous l’influence de ChatGPT. Malgré le caractère inquiétant de ses confidences sur la plateforme, cette dernière lui a recommandé les façons les plus à même de répondre à ses pensées autodestructrices.
Pour prendre en charge des idées suicidaires et des envies de passage à l’acte, il est nécessaire de réunir plusieurs compétences humaines, que les IA n’ont pas, par définition.
Parmi ces dernières, figurent des valeurs, comme le sens moral notamment. Au-delà d’avoir été créés pour donner raison à la personne qui les utilise, ces outils n’ont pas vocation à faire la distinction entre le bien et le mal.
L’IA n’est pas dotée d’affect, puisqu’il s’agit d’un état ressenti, ni d’empathie, capacité essentielle pour accompagner dans le domaine du soin.
Tout ceci, sans compter ce que nous avons relevé plus haut : la méconnaissance sur différents sujets, notamment en ce qui concerne les états dépressifs, par exemple, n’en témoigne ce tragique évènement.
Pas de soin sans humains
Même en ayant l’impression qu’ils sont réels et fondés, les idées suicidaires ou passages à l’acte sont pour la plupart des symptômes d’un état dépressif sous-jacent. Que ce dernier soit chronique ou passager, en réaction à un événement précis ou pas, il s’agit de pulsions motivées par un état de conscience modifié. Le cerveau est chimiquement perturbé et cela ne constitue pas un contexte propice pour s’écouter.
Quelques conseils pour vous détacher d’un rapport de dépendance à cet outil :
- Cherchez au maximum par vous-même, pour diminuer le risque d’erreurs et pour continuer à exercer vos capacités d’autonomie, de mémoire, de recherche, d’esprit critique.
- Demandez aux structures de soins pour être orienté.e en fonction de votre besoin.
- Investissez le communautaire pour l’aspect collectif sans trop angoisser d’être avec des individus qui ne vous ressemblent pas.
Le cadre thérapeutique est un moyen concret de se familiariser avec ses ressentis (notamment la solitude) afin de ne pas dépendre d’outils divers pour les fuir. D’autres espaces permettent l’accueil et l’expression des émotions sans que les risques soient comparables à ceux d’une interaction avec une machine.
En bref : laissez l’IA à sa juste place, c’est-à-dire un outil ponctuel utile pour des tâches pragmatiques et qui peut faire gagner du temps par exemple.