PARIS: Plongée dans la rédaction de cet article, le téléphone sonne.
Au bout du fil, la voix d’une amie : « J’ai hésité entre t’appeler pour te demander ton avis ou interroger ChatGPT. »
Le hasard fait parfois bien les choses : je tâtonnais pour trouver un angle d’attaque, ce coup de fil me l’a offert.
L’IA, cette innovation technologique récente sur laquelle les avis sont très partagés, fait désormais partie de notre quotidien.
Obtenir un renseignement, vérifier une information, planifier des vacances… Il suffit de poser une question et, en un clic, les réponses s’affichent.
Mais au-delà de cet aspect pratique, l’IA s’invite de plus en plus dans la sphère personnelle et intime.
Courrier du cœur pour certains, qui n’hésitent pas à lui confier leurs histoires affectives ; confidente pour d’autres ; déversoir de ressentiment qu’on ne parvient pas à exprimer ailleurs… elle est souvent perçue comme un confident idéal.
Cet usage intime n’est toutefois pas sans risque. Deux études récentes, menées par OpenAI et le Media Lab, mettent en garde contre un recours excessif à ces outils.
Les chercheurs observent que l’IA peut parfois tenir lieu de psychiatre ou de coach de vie, et qu’un lien de dépendance affective peut se nouer entre l’utilisateur et la machine.
Les résultats sont sans ambiguïté :« Dans l’ensemble, une utilisation quotidienne plus élevée, tous types de conversations confondus, est corrélée à une plus grande solitude, à une dépendance accrue, à une utilisation problématique, ainsi qu’à une socialisation réduite », soulignent les auteurs.
Ces conclusions rejoignent de nombreux témoignages recueillis depuis la généralisation de ChatGPT en 2022. Certains utilisateurs le décrivent comme un psychologue, un partenaire amoureux ou même un personnage fictif avec qui ils peuvent tout partager, sans crainte d’être jugés.
Les exemples abondent. En janvier dernier, une Américaine de 28 ans affirmait être amoureuse de ChatGPT, qu’elle qualifiait de « petit ami ».
Cela peut prêter à sourire, mais ce type de lien souligne aussi des dérives potentiellement graves.
Plus dramatique : une mère américaine a porté plainte contre Character.AI après le suicide de son fils de 14 ans, devenu accro à l’outil, qu’il considérait comme un ami et psychologue. D’autres incidents similaires ont été relayés dans les médias à travers le monde.
Face à ces histoires, certains seraient tentés de condamner l’IA sans nuance : elle rendrait les gens « fous », ou remplacerait dangereusement les relations humaines.
Mais la réalité est plus complexe.
Interrogé par Arabnews en français, le psychiatre hospitalier Emmanuel Le Guen se veut ni surpris, ni alarmiste :« Nous sommes presque tous dépendants de nos téléphones portables, et cela ne choque plus personne. L’IA, en tant qu’innovation récente, peut, en raison de ses caractéristiques, favoriser une forme de dépendance. »
Selon lui, ces outils sont conçus pour être bienveillants, dotés d’une grande capacité d’écoute et exempts de jugement: « Pour les personnes qui peinent à créer du lien social, l’IA peut les aider à mieux comprendre leurs problèmes, en les reformulant de façon claire et objective, et en y apportant des conseils. »
Mais il souligne aussi une limite essentielle : contrairement à un thérapeute humain, l’IA ne peut pas prendre en compte le contexte émotionnel ou familial. « C’est là que réside sa principale faiblesse : une écoute qui paraît empathique, mais qui reste fondamentalement décontextualisée. »
Le Guen reconnaît qu’il est difficile d’établir un profil type des personnes susceptibles de tomber dans cette dépendance.
Il évoque toutefois certains facteurs de vulnérabilité: « Ce sont souvent des individus solitaires, fragiles, en manque de sécurité, qui cherchent à se protéger du regard des autres. »
Dans certains cas, ajoute-t-il, le recours à l’IA peut avoir une fonction bénéfique : « Si l’IA aide quelqu’un à reprendre confiance en lui, sans passer par un thérapeute, pourquoi pas ? Cela signifie que sa situation ne nécessitait pas forcément un suivi médical. »
En revanche, le problème surgit lorsque cette dépendance renforce l’isolement, au lieu de le réduire.
Ces réflexions s’inscrivent dans un contexte plus large : celui d’une véritable épidémie de solitude.
Selon une étude Ifop, 17 % des Français déclaraient souffrir de solitude chronique en 2022, contre 13 % en 2018 — une tendance exacerbée par la pandémie de Covid-19.
Dans ce contexte, l’IA, disponible 24h/24, patiente et sans jugement, semble offrir une solution idéale : combler le vide relationnel, voire pallier la difficulté d’accès aux professionnels de santé mentale.
Mais faut-il vraiment s’en réjouir ?
La tentation est grande de préférer une relation virtuelle docile et sans conflit, à la complexité – et parfois à la richesse – des relations humaines.
On y perçoit aussi une forme de narcissisme : une IA à notre image, qui ne nous contredit pas, ne nous confronte pas à nos limites, et nous renvoie une version idéalisée de nous-mêmes.
La dépendance affective à l’intelligence artificielle révèle ainsi une tension contemporaine : celle d’un désir profond d’écoute et de compréhension, qui risque paradoxalement de creuser davantage l’isolement.
Comme le conclut Emmanuel Le Guen :« Si l’IA peut aider certains à aller mieux, tant mieux. Mais il faut rester vigilant pour qu’elle ne devienne pas un outil qui nous empêche d’aller vers l’autre. »