News - 25.09.2025

Dr Sofiane Zribi - Mon psy virtuel parle (aussi) le dialecte tunisien: Faut-il se confier à une machine?

Dr Sofiane Zribi - Mon psy virtuel parle (aussi) le dialecte tunisien: Faut-il se confier à une machine?

I- Oui, l’IA (intelligence artificielle) «comprend» le tunisien dialectal

Depuis peu, des chatbots comme ChatGPT conversent dans un arabe dialectal fluide. Pour beaucoup de Tunisiens - où que l’on vive, de Tunis à Tataouine - c’est une révolution silencieuse: plus de barrière de langue, une oreille disponible 24h/24, un coût quasi nul et zéro délai. Dans un pays où l’accès aux psychologues et aux psychiatres reste limité, la tentation est grande: et si l’on confiait ses angoisses à une machine «empathique»?

La question n’est pas théorique. Les chiffres mondiaux sont têtus: une personne sur deux développera au cours de sa vie un trouble psychique, selon une vaste étude internationale (150 000 adultes, 29 pays) publiée par The Lancet Psychiatry et relayée par Harvard Medical School(i).

La dépression s’impose déjà parmi les premières causes de handicap et devrait demeurer un fardeau majeur d’ici à 2030(ii). Dans ce contexte, beaucoup essaient déjà un «psy virtuel». Et certains s’en disent vraiment soulagés.

II- Ce que ces robots font bien (et pourquoi ça marche)

Accessibilité et anonymat : une connexion internet suffit. Pour les personnes isolées, stigmatisées, ou hésitant à consulter, c’est parfois la seule porte d’entrée vers une aide.

Des techniques qui passent bien en messages : Les thérapies cognitivo-comportementales (TCC) s’enseignent par étapes claires : identifier une pensée automatique, la reformuler, pratiquer la respiration, planifier une exposition graduée… C’est précisément le genre de protocole qu’un agent conversationnel peut délivrer proprement.

Des résultats cliniques encourageants: en mars 2025, une équipe de Dartmouth a publié le premier essai randomisé d’un chatbot thérapeutique «génératif»(iii).

Résultat: amélioration significative des symptômes de dépression, d’anxiété et de troubles de l’alimentation avec un agent spécifiquement entraîné et supervisé par des cliniciens.

Un «miroir qui parle»: parfois, l’effet tient aussi au simple fait d’écrire ou de parler et d’être «reformulé». L’allègement subjectif est réel : c’est un effet de miroir et, en partie, un effet placebo relationnel—puissant en santé mentale. Et ce miroir, désormais, vous répond en dialecte tunisien.
III-Là où l’illusion commence (et où les ennuis surgissent)

Empathie simulée: une IA peut «dire» : «Je comprends votre peine». Mais elle ne ressent rien. Plusieurs philosophes et cliniciens (Berkeley, etc.) défendent même qu’une IA empathique est impossible ou immorale : l’empathie, au cœur du soin, n’est ni calculable ni simulable sans risque d’abus des attentes relationnelles des patients(iv).

Données intimes exposées: contrairement au psychologue tenu au secret, nombre d’applications relèvent du privé: collecte, traçage, réutilisation possible des contenus…Des équipes académiques alertent sur ces «compromis de confidentialité» dans l’usage des IA généralistes pour le soutien émotionnel(v).

Bugs, biais et «hallucinations»: des travaux récents (Stanford, 2025) soulignent des défaillances potentiellement dangereuses (réponses biaisées, conseils inappropriés) quand ces outils sont mal encadrés(vi).

Cas dramatiques: aux États-Unis, plusieurs familles poursuivent des plateformes après des suicides d’adolescents, pointant des conversations non sécurisées et des attachements pathologiques. Les affaires - au civil et au législatif - se multiplient (Reuters, Washington Post, AP/CBS)(vii).

IV-Pourquoi l’IA «marche» (et pourquoi elle ne doit pas remplacer le psy)

Pourquoi ça marche ? Parce que l’on parle enfin à «quelqu’un». Parce que des techniques standards (TCC) soulagent. Parce que le langage est déjà en soi thérapeutique. Et parce que l’outil est toujours disponible - en français, en arabe, en tounsi.

Pourquoi elle ne remplace pas le psy? La psychothérapie est une rencontre entre deux subjectivités incarnées, avec un cadre, une responsabilité, un transfert qui se travaille (et un contre-transfert qui régule). Une machine peut imiter l’écoute, pas porter une relation. La nuance est plus qu’éthique: clinique. Les études positives concernent des outils encadrés, ciblant des troubles légers à modérés et jamais en situation de crise - et toujours non substitutifs d’une prise en charge professionnelle(viii).  

V- Et chez nous, en Tunisie? Un formidable levier… à condition de l’encadrer

Le levier : dans les régions sous-dotées, pour les personnes peu à l’aise avec le français standard, la fin de la barrière linguistique est une chance. Un étudiant, une mère isolée, un retraité peuvent tester des exercices (respiration, restructuration cognitive), tenir un journal dialogué, préparer leur première consultation. L’IA en tounsi déstresse, déstigmatise, déclenche parfois la demande de soin - c’est précieux.

Les garde-fous à garder en tête:

1. Ne pas utiliser un chatbot en cas d’urgence (idées suicidaires, crise psychotique, passage à l’acte imminent). Appeler les numéros d’urgence tunisiens, solliciter la famille, consulter.
2. Privilégier des solutions validées et transparentes (qui stocke quoi ? où ? combien de temps ?).
3. Encadrer au niveau national: label ou certification publique des psychobots utilisés en santé, supervision clinique de leurs contenus, audits de sécurité et sanctuarisation des données sensibles.
4. Former le public: rappeler à chaque usage que l’outil est une aide, pas un thérapeute, et proposer des passerelles claires vers des professionnels.

Le bon usage, l’intégration complémentaire : le psy virtuel peut être efficacement utilisé s’il seconde une vraie prise en charge par un psychiatre ou un psychologue:

Entre deux séances humaines: réviser des outils TCC, monitorer l’humeur;
En amont d’un suivi: psychoéducation, levée de la honte, préparation des questions;
Mais jamais pour « remplacer » un suivi, jamais en crise, jamais sans consentement éclairé sur les données.

VI- Conclusion — Ce que la machine nous apprend (et ce que nous devons protéger)

L’IA nous tend un miroir parlant - désormais en tounsi. Elle peut apaiser, démystifier la démarche, transmettre des techniques utiles et accélérer l’accès au soin. Pour un pays qui manque de ressources en santé mentale, c’est une opportunité concrète.

Mais confier notre détresse à une machine qui n’a ni corps, ni histoire, ni responsabilité n’est pas anodin. L’IA ne “sent” pas votre douleur; elle la formate. Et si elle ouvre la porte du soin, elle peut aussi faire écran à la relation humaine, exposer votre intimité et, mal encadrée, aggraver des vulnérabilités.

Notre cap tunisien devrait être clair:

Oui à l’IA comme béquille - utile, encadrée, supervisée, respectueuse des données et jamais en situation d’urgence;
Non à l’IA comme substitut du thérapeute - car la thérapie est une rencontre, pas une simulation.

Au fond, cette révolution technologique nous rappelle une vérité simple : la santé mentale se soigne par la parole, mais surtout par la présence. La machine peut aider à parler. Seul l’humain sait écouter.
 

Sofiane Zribi
Psychiatre

Références sur le Net qui ont servi à l’élaboration de cet article

i) https://hms.harvard.edu/news/half-worlds-population-will-experience-mental-health-disorder?

ii) https://www.who.int/news/item/30-03-2017--depression-let-s-talk-says-who-as-depression-tops-list-of-causes-of-ill-health?

iii) https://ai.nejm.org/doi/full/10.1056/AIoa2400802?

iv) https://publichealth.berkeley.edu/articles/spotlight/research/can-we-replace-human-empathy-in-healthcare?

v) https://trinity.duke.edu/news/dangerous-helpers-understanding-privacy-trade-offs-ai-mental-health-support?

vi) https://news.stanford.edu/stories/2025/06/ai-mental-health-care-tools-dangers-risks?

vii) https://www.reuters.com/sustainability/boards-policy-regulation/google-ai-firm-must-face-lawsuit-filed-by-mother-over-suicide-son-us-court-says-2025-05-21/?

viii) https://ai.nejm.org/doi/full/10.1056/AIoa2400802?