ChatGPT n’est plus un simple outil d’IA : il influence nos comportements, nos émotions et même nos relations. Découvrez pourquoi des millions de personnes lui accordent une confiance étonnante et ce que cela révèle sur notre rapport aux intelligences artificielles.
Pourquoi faisons-nous confiance à ChatGPT ? La vérité derrière un phénomène mondial
En 2019, lors d’un festival près d’Amsterdam, des chercheurs néerlandais ont mené une expérience inattendue : inviter des participants à confier anonymement un secret, soit à un prêtre, soit à un simple chatbot. Près de 300 festivaliers ont accepté. Certains ont partagé des révélations profondes, allant d’infidélités à des traumatismes. Les aveux confiés aux humains et aux machines étaient d’une intimité comparable, mais les volontaires déclaraient ressentir davantage de confiance envers les personnes, tout en percevant moins de jugement de la part des chatbots.
À l’époque, ces assistants numériques servaient surtout à répondre à des questions pratiques ou à guider des achats. L’idée de leur confier sa vie personnelle semblait improbable. Depuis, tout a changé.
Le lancement de ChatGPT en 2022 a transformé la relation entre humains et IA. Aujourd’hui utilisé par des centaines de millions de personnes, l’outil a ouvert la porte à des échanges réguliers, parfois intimes, capables d’influencer opinions, comportements et émotions. Certains utilisateurs évoquent même des liens d’amitié ou de romance avec des compagnons virtuels. Pour de nombreux spécialistes, l’écosystème de la recherche sur les chatbots se divise désormais en deux périodes distinctes : avant et après ChatGPT.
Les communautés en ligne reflètent ce basculement. Sur Reddit, des groupes comme r/MyBoyfriendIsAI rassemblent des milliers de témoignages décrivant des relations formées progressivement, au fil de conversations naturelles. D’autres entreprises proposent des avatars conçus pour séduire ou accompagner l’utilisateur au quotidien. De nouveaux gadgets basés sur l’IA promettent même une présence constante, capable de suivre une série ou d’écouter des confidences en continu.
Cette évolution ne va pas sans risques. Si certaines études indiquent que les chatbots peuvent aider à corriger des croyances complotistes ou offrir un soutien psychologique ponctuel, d’autres cas soulèvent de fortes inquiétudes. Des familles américaines poursuivent plusieurs entreprises après le suicide de mineurs ayant confié leurs inquiétudes et leur détresse à des IA. Ces affaires ont poussé certaines plateformes à annoncer des restrictions destinées à limiter l’accès des enfants à des conversations complexes avec des modèles avancés.
L’essor de ces outils s’accompagne également d’un phénomène de surconfiance. Certaines personnes accordent spontanément une crédibilité trop élevée aux réponses des IA, comme l’illustre une expérience menée à Georgia Tech en 2016 : des participants ont continué à suivre un robot d’évacuation pourtant défaillant lors d’une simulation d’incendie. L’idée qu’une machine ne puisse pas se tromper influence encore largement notre comportement.
D’autres recherches montrent que les critères qui déterminent la confiance entre humains — perception d’honnêteté, compétence, proximité culturelle ou politique — s’appliquent aussi aux chatbots. Selon des travaux récents, les préférences partisanes peuvent même orienter le choix d’un assistant, certains groupes privilégiant des modèles perçus comme plus compatibles avec leurs convictions.
Malgré les risques, ces outils possèdent un potentiel utile. Pour certains spécialistes, ils peuvent servir d’appui temporaire dans des situations où un soutien humain est inaccessible. Ils peuvent aider à préparer une conversation difficile ou à développer des compétences sociales. Mais leur usage nécessite un cadre clair : objectifs définis, limites établies, précautions énoncées.
La question de la régulation se pose de plus en plus. Des experts appellent à l’instauration de garde-fous tels que des limites d’âge plus strictes, des restrictions sur les rôles thérapeutiques que certaines IA adoptent, ou des mécanismes de transparence renforcés. Plusieurs mesures gouvernementales ont été annoncées, tandis que des acteurs de l’industrie cherchent à influencer les futures politiques pour protéger leurs intérêts.
Si l’on répétait aujourd’hui l’expérience de 2019, les résultats seraient probablement très différents. Les utilisateurs resteraient anonymes et libres de toute crainte de jugement, mais les chatbots modernes apparaîtraient plus compréhensifs, plus empathiques, plus proches de la communication humaine. Leur capacité à susciter des confidences profondes a évolué — et notre rapport à ces outils a changé avec elle.
Source : Mother Jones
