Chat Bot Chat with AI or Artificial Intelligence technology. Woman using a laptop computer chatting with an intelligent artificial intelligence asks for the answers he wants. ... PlusPar SupatmanEditos/Parti-Pris Depuis le dĂ©but des annĂ©es 2010, je suis Ă©quipĂ© en classe et au travail dâun PC contenant de nombreuses intelligences artificielles. Une rĂ©cente enquĂȘte du Monde a dĂ©montrĂ© que ces mĂ©thodes Ă©ducatives et professionnelles, que jâadopte encore faute de budget, favorisent de nombreuses formes dâisolement et lâapparition de nouveaux troubles mentaux.Par Oscar Tessonneau ·12 Janvier 2025Sans eux, je sais que jâaurais rapidement quittĂ© les bancs de lâĂ©cole. Quâelles mâaident Ă rĂ©aliser un calcul ou une rĂ©daction, les intelligences artificielles mâont permis dâassimiler de nombreuses notions grammaticales ou arithmĂ©tiques. Aujourdâhui, jâaimerais que ma condition financiĂšre mâaide Ă mâen Ă©manciper. Dans une enquĂȘte magistrale que je vous invite Ă lire, la journaliste au Monde Laure Belot Ă©crit que « des jeunes (et moins jeunes) du monde entier se sont emparĂ©s de ChatGPT et dâautres robots conversationnels pour leur confier leur mal-ĂȘtre ». La journaliste observe un phĂ©nomĂšne massif. Des millions de personnes utilisent ces outils « pour avoir de la compagnie ou ĂȘtre soutenues ».Le docteur Mustafa Suleyman alerte sur « ce risque accru de dĂ©lires lors dâinteractions Ă©motionnelles avec les chatbots ». Je rappelle que ces derniers sont utilisĂ©s en classe et au travail par des Ă©lĂšves ayant un handicap mental et cognitif, avec tout ce que leurs difficultĂ©s impliquent, des burn-out au dĂ©veloppement de pensĂ©es dĂ©lirantes. Pour illustrer son propos, Laure Belot rapporte le tĂ©moignage dâun psychiatre. Cette personne « a Ă©tĂ© convaincue par ChatGPT quâelle Ă©tait un gĂ©nie incompris ». Il a par la suite dĂ©posĂ© des dizaines de dossiers scientifiques afin que ses recherches rĂ©alisĂ©es par un chatbot soient soutenues par des laboratoires.Pour toutes ces raisons, neuf neuroscientifiques et informaticiens interrogĂ©s par nos confrĂšres du Monde parlent dâ« un nouveau problĂšme de santĂ© publique ». Ils soulignent que ces outils « disent ce que lâon veut entendre ». Perdus dans leurs pensĂ©es, les plus fragiles dâentre nous peuvent dĂ©velopper une dĂ©pendance. Ces publics porteurs de troubles du neurodĂ©veloppement ou comportementaux ont pourtant besoin dâaide pour sâautodĂ©terminer. Dans un essai intitulĂ© Lâautisme : comprendre et agir dans une perspective psychoĂ©ducative, Marie-HĂ©lĂšne Poulin, Myriam Rousseau et Jacinthe Bourassa expliquent que lâautodĂ©termination ne se confond pas avec lâautonomie. Elles rappellent quâil sâagit dâun processus structurĂ© en trois phases : « dĂ©terminer un but », « se mettre en action », « ajuster son plan ». Tout comme les fonctionnaires ou chaque salariĂ© d'une entreprise dans cette situation, les Ă©lĂšves doivent se demander : « Quel est mon but ? », « Quel est mon plan ? », « Quâest-ce que jâai appris ? ». Le modĂšle place lâĂ©lĂšve « en contrĂŽle de son apprentissage ». Chaque contrĂŽle suppose des ressources humaines que nâoffrent pas les intelligences artificielles.Ces derniĂšres ne savent justement pas nous dire non. Elles ont toujours exĂ©cutĂ© ce que je demande systĂ©matiquement depuis le dĂ©but de ma scolaritĂ© pour rĂ©aliser une tĂąche me semblant trop difficile. Du codage informatique aux prises de parole en public, en passant par le montage vidĂ©o et lâĂ©criture, jâai la chance de faire des tĂąches bien identifiĂ©es par mes proches.Liaisons dangereusesLa principale leçon que jâai tirĂ©e de ces expĂ©riences scolaires et professionnelles est que, sans ce cadre humain, une personne autiste reste sans solutions et dĂ©veloppe des troubles. Dans son enquĂȘte, Belot rapporte que « seules 3 % » des applications de bien-ĂȘtre ont fait lâobjet dâĂ©tudes scientifiques. Une Ă©tude de Stanford note que ChatGPT, Claude, Gemini et Meta AI « ne parviennent toujours pas Ă reconnaĂźtre et Ă rĂ©pondre de maniĂšre appropriĂ©e aux troubles de santĂ© mentale des jeunes », quâils soient neurodĂ©veloppementaux ou temporaires. Ainsi, lorsquâils sont isolĂ©s, comme je le suis sur mon poste de travail depuis bientĂŽt deux ans faute dâargent, ces profils dĂ©veloppent de nombreuses pathologies. Les scientifiques citĂ©s par Laure Belot alertent sur le danger de « pensĂ©es dĂ©lirantes » chez les personnes fragiles. LâIA renforce parfois des croyances erronĂ©es, sans filtre clinique.Dans ce paysage saturĂ©, la psychiatrie craque. Le Monde rapporte que cette science a Ă©tĂ© la discipline « la plus sollicitĂ©e pour des consultations en ligne pendant la pandĂ©mie de Covid-19 ». Or, elle « nâa plus les moyens de cette rĂ©ponse synchrone », selon un article de World Psychiatry de juin 2025 dont John Torous est lâauteur principal. De cette pĂ©nurie naĂźt « lâĂ©mergence planĂ©taire de nouvelles offres numĂ©riques dites de santĂ© mentale asynchrone ». DerriĂšre cette course numĂ©rique, les gĂ©ants avancent. Dâici quelques annĂ©es, leurs IA pourraient dĂ©tecter, grĂące Ă lâintonation de nos voix et au contenu de nos discours, plusieurs troubles mentaux. Le psychiatre RaphaĂ«l Gaillard ajoute : « LâIA va peut-ĂȘtre permettre de reproduire ce processus de maniĂšre algorithmique. »Lâisolement et ses consĂ©quences dĂ©lĂ©tĂšresAmazon, Google et Microsoft investissent dans ces technologies permettant dĂ©jĂ aux plus fragiles dâaller Ă lâĂ©cole. Pour rappel, jâai rĂ©alisĂ© une grande partie des exercices demandĂ©s par mes professeurs au bac et pendant mes Ă©tudes supĂ©rieures avec des outils de la suite Microsoft.Thomas Klein Ă©crit : « Les LLM et lâIA pourraient bien constituer le prochain saut quantique en santĂ©. » Je reste, Ă titre personnel, trĂšs mĂ©fiant face Ă ces avancĂ©es. Mon expĂ©rience personnelle lâa encore montrĂ© il y a peu. Lâan dernier, je me suis inscrit au programme HâUp AcadĂ©mie de lâassociation HâUp. Cette association, voulant mettre des chefs dâentreprise en situation de handicap dans un « environnement similaire Ă celui dâune start-up », ne propose aucun accompagnement technique aux acadĂ©miciens.Ainsi, pour comprendre les cours donnĂ©s dans plusieurs disciplines comme la finance ou le marketing, je me suis retrouvĂ© seul le soir. Je sollicitais des chatbots pour mâassurer que jâavais assimilĂ© chaque notion. Pourtant, lâancien prĂ©sident de cette association, Hamou Bouakkaz, mâavait Ă©crit il y a quelques mois : « Si HâUp doit survivre, elle doit coller aux besoins des entrepreneurs handicapĂ©s ! ». MalgrĂ© mes nombreuses demandes, je me retrouvais Ă rĂ©aliser des tableaux de comptabilitĂ© seul. Je gardais espoir de ne jamais dĂ©velopper les mĂȘmes pensĂ©es dĂ©lirantes que le patient autiste Ă©voquĂ© par Laure Belot.Ainsi, dans ce contexte oĂč les chatbots entrent sur tous mes Ă©crans depuis plus de quinze ans, je laisse entendre que cette enquĂȘte est un vĂ©ritable avertissement. InterrogĂ©, le docteur John Torous alerte sur les dangers de ces conversations et autres exercices de maths faits avec une IA : « Une conversation thĂ©rapeutique ne constitue pas une rĂ©elle thĂ©rapie. » Les IA rassurent et nous font croire que nous maĂźtrisons une notion. NĂ©anmoins, un accompagnement humain, que vous pouvez financer en payant votre abonnement Ă Rightbrain, aura toujours plus de valeur.