Intelligence artificielle et psychologie : 3 usages éthiques au cabinet
L'intelligence artificielle arrive dans les cabinets. Elle peut faire gagner du temps et améliorer la qualité du suivi, mais elle soulève des questions déontologiques importantes.
Les trois usages qui marchent
1. La pré-rédaction de comptes rendus
Après une séance, dicter quelques notes et laisser l'IA structurer un brouillon de compte rendu peut économiser 10 à 15 minutes par patient. Le praticien valide, corrige, enrichit — il reste toujours l'auteur final.
Condition éthique : l'IA ne doit voir aucune donnée nominative. Le nom du patient, sa date de naissance, son adresse sont remplacés par des jetons avant envoi vers l'IA.
2. L'aide à la synthèse
Après 20 séances, relire 20 comptes rendus pour préparer une supervision ou un courrier au médecin traitant prend du temps. L'IA peut produire une synthèse structurée (évolution des symptômes, thèmes récurrents, points de vigilance) à partir des notes existantes.
Condition éthique : la synthèse est un outil d'aide à la réflexion, pas un substitut. Le praticien doit pouvoir tracer chaque affirmation vers la note source.
3. La veille clinique personnalisée
Difficile de se tenir à jour sur les dernières publications en TCC, thérapies de couple ou neuropsychologie. Une IA peut scanner les nouvelles publications et vous signaler celles pertinentes pour vos thématiques.
Condition éthique : la veille ne remplace pas la formation continue certifiée, elle la nourrit.
Les lignes rouges
- Jamais de diagnostic proposé par l'IA. C'est un acte médical, une responsabilité humaine.
- Jamais de prescription médicamenteuse ou paramédicamenteuse sans validation humaine.
- Jamais d'interaction patient-IA sans supervision — le patient doit savoir qu'il parle à un humain, pas à un algorithme.
- Jamais de données non-anonymisées envoyées vers un fournisseur d'IA tiers.
Le choix du fournisseur
Demandez à votre logiciel :
- Quels fournisseurs d'IA utilise-t-il ? (OpenAI, Anthropic, Mistral, autre ?)
- Où sont hébergés les serveurs ? (France, Europe, États-Unis ?)
- Les données sont-elles anonymisées avant envoi ?
- Un DPA est-il signé avec le fournisseur d'IA ?
- Puis-je désactiver l'IA pour certains patients ?
Si la réponse n'est pas claire, le sujet est peut-être évité pour une bonne raison.
En résumé
L'IA est un formidable outil d'assistance. Elle ne doit jamais devenir un substitut au jugement clinique, ni un canal de fuite de données sensibles. Choisissez un logiciel qui prend au sérieux ces deux conditions.