Depuis son arrivée, plusieurs personnes se tournent vers ChatGPT pour avoir un espace d’écoute, un miroir, un mentor ou parfois même un « thérapeute provisoire ».

Selon moi, ça peut être une bonne idée dans le sens qu’on le prend comme un point de départ pour réfléchir, ventiler, mieux se comprendre ou simplement ne pas être seul avec ses pensées.

Pour beaucoup, c’est ça ou... rien du tout.

Entre s’ouvrir à ChatGPT ou sombrer dans des comportements destructeurs, qu’est-ce qui est le moins pire?

Malheureusement, au Québec comme ailleurs, les soins psychologiques sont difficiles à obtenir : trop chers, trop longs, trop complexes, trop rares.

À mon avis, l’intelligence artificielle, utilisée avec conscience et prudence, peut être un appui dans une période difficile, mais il faut savoir quand se tourner vers de vrais humains.

L’avantage de l’IA est qu’elle est là 24h/24 et sans jugement. Bien qu’elle essaie toujours de valider, on peut aussi lui demander de nuancer nos propos et trouver des pistes de réflexion. Mais il y a des limites! Si une personne est en crise, en danger, suicidaire, l’intelligence artificielle n’intervient pas en temps réel.

l’IA est utile, mais elle devient parfois un refuge par défaut, faute d’alternatives humaines accessibles. Ce n’est pas normal que ce soit rendu aussi difficile d’obtenir de l’aide concrète, chaleureuse, compétente, quand on en a besoin.

Et pourtant, c’est la réalité de millions de personnes.

Mais si ses mots peuvent soulager un peu, tenir compagnie, accompagner un bout du chemin ou juste offrir une présence douce dans un moment noir, alors c’est déjà ça.
Crédit: Solen Feyissa

Est-ce que ça remplace un vrai thérapeute ?

La réponse est simple : non.

ChatGPT ne peut pas te voir. Il ne peut pas sentir les silences lourds ni remarquer les larmes qui montent. Il ne peut pas me dire : « Tu me sembles bouleversée, veux-tu qu’on ralentisse? » Il ne peut pas s’ajuster à mon énergie, à mon vécu, à mes déclencheurs comme le ferait un humain formé, avec sa propre intuition.

L’IA est comme un miroir. Il n’apporte pas de solutions magiques, mais il reflète les mots, les contradictions et les émotions de son utilisateur. Il propose des pistes et il invite à se questionner. Utilisée avec discernement, avec recul et avec conscience de ses limites, l’IA peut nous aider en étant un point d’ancrage temporaire.

ChatGPT n’est pas un psy.

Il ne le sera jamais, mais dans un monde où tant de gens n’ont pas accès à une vraie écoute humaine, il vaut mieux un robot bienveillant qu’un silence pesant. Il vaut mieux un espace d’écriture et de réflexion que le vide, l’isolement ou la panique.

Et si cela peut nous rappeler, collectivement, à quel point les soins en santé mentale sont fondamentaux et urgents… alors c’est peut-être le signe qu’on doit s’en servir comme un signal d’alarme. Et comme un allié, jamais un substitut.
Photo de couverture via Solen Feyissa
Accueil