
🎤 Un sujet émergent et complexe, éclairé par Nora Pourcher, fondatrice d’Izia, conseil inclusif, animatrice de l’atelier Santé Mentale Pour Tous basée à Lyon
« Qui a besoin d’un homme quand tu as ChatGPT à tes côtés ? ». Voilà ce qu’une femme de 28 ans avait confié, en toute simplicité, au quotidien le New York Times. Un cas loin d’être isolé.

📊 A tel point qu’OpenAI, l’entreprise américaine derrière ChatGPT, a décidé de lancer un sondage sur « l’utilisation affective et le bien-être émotionnel sur ChatGPT » auprès de quelques 400 millions de ses utilisateurs. Ceci, avec l’appui du prestigieux Massachussetts Institute of Technology (MIT) américain. Les résultats, publiés en mars 2025, sont en demi-teinte, comme il fallait s’y attendre. Et pour cause : parmi les limites de l’étude, de nombreux chercheurs ont pointé : absence d’examen par les pairs, périmètre limité aux utilisateurs anglophones de ChatGPT, mesures auto-déclaratives…
Il n’empêche. Il en ressort que les personnes interagissant quotidiennement avec l’Intelligence Artificielle (IA) auraient « tendance à développer un sentiment de solitude, une dépendance émotionnelle, voire une addiction ».
Solitude, quand tu nous tiens
Fléau de nos sociétés placées sous le signe de l’immédiateté, de l’hyperconnexion et de la quête de la performance dans toutes nos sphères de vies, la solitude frappe. En silence. Et la Fondation de France a décidé d’en faire son cheval de bataille. Elle publie chaque mois de janvier, une étude sur le sujet.
📊 Ses chiffres 2025 ne sont pas en reste : le sentiment de solitude continue d’augmenter puisqu’il touche 1 personne sur 4. Avec un pic notable chez les jeunes âgés de 25 à 39 ans : 35 % des répondants de cet âge déclarent se sentir fréquemment seuls, contre 16 % des 60-69 ans.
Un mal-être grandissant, qui peut avoir de sérieuses conséquences sur la santé mentale et physique
Un isolement des jeunes plus que jamais tabou aujourd’hui encore
Car, quand on est jeune, reconnaitre qu’on se sent seul, et oser en parler, vient contredire les injonctions d’une jeunesse modélisée, idéalisée et portée aux nues par nos sociétés occidentales qui invitent par ailleurs, les générations X et Y à dépenser toujours plus de temps et d’argent pour « conserver son capital jeunesse ».
Parler de ses difficultés, quel que soit son âge, ne pas rester seul, c’est faire un premier pas. Oui, mais. Encore faut-il en avoir conscience, oser, et savoir quand, et à qui s’adresser.
Alors, face à des consultations psychologiques parfois longues à obtenir, ils sont de plus en plus nombreux à préférer se tourner vers des outils comme ChatGPT. Accessibles, gratuits et sans jugement, ces IA conversationnelles seraient-elles en passe de devenir de véritables confidents virtuels et de redéfinir nos interactions sociales ? L’IA jouerait-elle avec notre santé mentale, et ceci, pour le meilleur ou pour le pire ? On fait le point !
IA et santé mentale : de quoi parle-t-on ?
L’IA, tout d’abord
Pour faire (très) simple, c’est une technologie qui permet aux ordinateurs et aux machines de simuler l’apprentissage, la compréhension, la résolution de problèmes, la prise de décision, la créativité et l’autonomie de l’être humain (mais pas que). L’IA générative est une forme d’IA capable de créer des contenus originaux (texte, images, vidéo, audio et/ou code logiciel) en réponse à la demande d’un utilisateur.
Parmi les nombreuses applications de l’IA, les « chatbots » se distinguent des « agents IA » :
- les chatbots, assistants virtuels avec lesquels je discute par texte ou par voix, sont conçus pour simuler des conversations humaines assez simples, et fournir une assistance spécifique (service client, réponses aux FAQ, assistance de 1er niveau, réservations…).
- Les agents IA, quant à eux, sont des systèmes d’IA plus avancés, capables de réaliser des tâches bien plus complexes, prendre des décisions et d’atteindre des objectifs très spécifiques, avec une intervention humaine minimale, voire en toute autonomie.
Quid du côté de notre santé mentale ?
Elle est définie par l’Organisation mondiale de la santé (OMS) comme « un état de bien-être mental qui nous permet de faire face aux sources de stress de la vie, de réaliser notre potentiel, de bien apprendre et de bien travailler, et de contribuer à la vie de la communauté. Elle a une valeur en soi en tant que facteur favorable, et fait partie intégrante de notre bien-être ».
Loin d’être figée, elle est plutôt un équilibre psychique qui peut connaître des fluctuations. « Avec des hauts et des bas », comme on le dit si souvent.
Une chose est sûre : bonne ou mauvaise, nous avons tous une santé mentale dont il est essentiel de prendre soin, tout comme pour notre santé physique.
La santé mentale, enjeu majeur de santé publique, s’est hissée comme Grande cause nationale de l’année 2025 en France. On applaudit. Elle souffre cela dit, d’un déficit flagrant d’information. Car, comme le précise le site officiel d’information du Gouvernement, info.gouv.fr : « ouvrir les yeux et le dialogue, mettre des mots sur les maux liés à la santé mentale sont essentiels pour faire avancer la compréhension et la prise en charge de ce sujet encore mal connu, et qui pourtant concerne tous les Français ».
IA et santé mentale : mêmes combats ?
Parmi les objectifs priorisés par le gouvernement pour agir, on retrouve la prévention, la détection précoce et l’amélioration de l’accès aux soins.
Des axes sur lesquels, précisément, l’IA peut s’avérer très précieuse. C’est ce qui ressort du dossier « Utilisation de l’IA en santé mentale » publié par BPI France en mars 2025. 3 principaux usages de l’IA en santé mentale y sont répertoriés :
✅ Prévention des risques par le repérage de troubles à un stade précoce.
✅ Diagnostic et aide à la décision clinique.
✅ Traitement et suivi personnalisé via le recueil de données.
Sur le terrain, parmi les usages de l’IA en santé mentale, on retrouve ainsi nos fameux chatbots ou assistants conversationnels, développés pour détecter les émotions humaines et y répondre. Mais aussi nos smartphones, applications mobiles et autres objets connectés.
Si la montée en puissance de la présence d’IA dans le domaine de la santé mentale, et de la santé tout court, promet des avancées bénéfiques incontestables, elle génère aussi zones d’ombres et d’inconnues, avec des défis éthiques à relever.
Lorsqu’on croise l’usage de l’IA avec la santé mentale, la psychologue clinicienne Clara Falala-Séchet, dans une interview accordée à France 24 le 6 avril 2025, pointe du doigt l’utilisation de l’outil plutôt que l’outil en lui-même.
Pour elle, « l’IA est entraînée pour valider l’empathie », ce qui la rend particulièrement attrayante pour les personnes en manque de soutien. « Si une personne a moins de variétés de sources de soutien et d’empathie, de liens avec des personnes de son entourage, elle aura une carence et va être plus susceptible de tomber dans des comportements de dépendance à ces outils. » Et de conclure : « L’IA simule l’écoute, mais ne peut pas l’incarner, car elle n’a pas accès à la prise de recul ou aux bénéfices d’une véritable interaction humaine ».
L’IA : bombe à retardement pour la santé mentale ?
Avec de tels usages possibles de l’IA, l’illusion du soutien psychologique est une réalité dont nos sociétés ne mesurent qu’à peine les conséquences. S’il faut clairement vivre avec son temps et embrasser le progrès, la course à l’IA ne doit pas pour autant occulter les dangers qu’elle pourrait faire planer sur notre santé mentale.
En plus des risques d’isolement et de dépendance, l’IA présente également des limites culturelles et peut amplifier des biais algorithmiques et par exemple, générer des risques de diagnostics inéquitables pour certaines populations en minorité. La confidentialité des données sensibles, comme les historiques de conversation, est également une préoccupation.
On retrouve le même son de cloche du côté de Mentaltech, premier collectif français dédié à l’émergence de solutions numériques en santé mentale créé en 2022 qui regroupe une trentaine d’acteurs (startups, institutionnels et professionnels de santé).
Publié en octobre 2024, son rapport alerte clairement sur les risques d’une utilisation de l’IA non-encadrée en matière de santé mentale, et pousse les autorités à réagir. Parmi la dizaine de recommandations, citons :
📍L’élaboration d’une notice d’information claire pour les utilisateurs,
📍La création d’un comité scientifique pluridisciplinaire,
📍La participation du professionnel de santé dans le processus de développement de l’algorithme.
A bon entendeur !
Au bout du compte, l’IA est un outil puissant qui peut « assister » avec efficacité le secteur de la santé mentale. Mais elle ne peut pas remplacer l’expertise des professionnels de santé, l’empathie, les contact humains et des liens sociaux de qualité.
Car, faut-il le rappeler, lorsqu’il est question de santé mentale, l’équilibre, des plus fragiles, peut se rompre sans prévenir : lorsqu’un individu est touché par une situation de précarité, ou par la survenance ou l’aggravation d’un handicap, lorsqu’il interagit majoritairement via les réseaux sociaux et à distance au détriment du présentiel et qu’il n’a que très peu ou plus de liens du tout avec ses proches, son voisinage, sa famille, ou encore, lorsqu’il endosse des responsabilités de proche aidant.
Un lien social essentiel, qu’il est urgent de d’entretenir, mais aussi de réparer.
Réparer le lien social : c’est d’ailleurs le thème choisi avec justesse, pour la 36ème édition des Semaines d’Information sur la Santé Mentale (SISM) qui aura lieu du 06 au 19 octobre 2025. Une opportunité pour l’individu et les collectifs, d’informer, de s’informer, découvrir et partager des ressources, pour ne plus rester seul.
💡Alors ? « Qu’est-ce qu’on attend pour se parler ? »