Blogpost

LLM dans le domaine de la santé : qu’est-ce qui est utile, nuisible et que devez-vous savoir ?

a person holding a tablet

L’essor de l’IA générative réécrit notre façon de travailler.

ChatGPT, l’un des outils les plus discutés de cette vague d’IA, est déjà testé dans des hôpitaux, des cliniques et des centres administratifs à travers l’Europe. Sa capacité à générer rapidement du texte à la manière d’un humain semble révolutionnaire. Mais dans un domaine qui dépend de la confiance, de l’exactitude et de la responsabilité, nous ne pouvons pas nous permettre de laisser la nouveauté l’emporter sur la prudence.

Alors, quel rôle un outil comme ChatGPT devrait-il jouer dans les soins de santé ? Quels sont les risques réels ? Et comment les prestataires de soins de santé peuvent-ils utiliser ces outils de manière responsable, sans enfreindre les limites éthiques ou légales ?

Voyons clairement ce qu’est ChatGPT, ce qu’il n’est pas et ce que chaque organisation de santé doit savoir avant d’intégrer un LLM dans son flux de travail.

Qu’est-ce que ChatGPT exactement ?

ChatGPT est un grand modèle de langage (LLM), une forme d’intelligence artificielle entraînée sur d’immenses quantités de texte. Il imite la conversation humaine en prédisant les séquences de mots probables, générant tout, des e-mails au code, en passant par des essais en quelques secondes.

Mais ce n’est pas un moteur de recherche. Il ne « connaît » pas les faits. Il ne pense pas. Il ne vérifie pas les sources.

Au lieu de cela, il génère des résultats basés sur des probabilités, ce qui signifie qu’il peut sembler confiant tout en se trompant complètement. Dans un contexte marketing, c’est une faute anodine. Dans un domaine médical, cela pourrait être dangereux.

Pourquoi les soins de santé s’y intéressent, et sont à juste titre prudents

Les soins de santé est sous tension. Pénurie de personnel, surcharge administrative et attentes croissantes des patients font en sorte que toute technologie prometteuse mérite d’être revue. Et ici, ChatGPT peut vraiment aider.

L’orsqu ‘ils sont utilisés avec soin, les LLM peuvent aider le personnel de santé dans une gamme de tâches administratives non cliniques. Par exemple, ils peuvent aider à résumer des documents, à rédiger des communications internes ou à recueillir des informations générales sur un sujet. Ils peuvent même générer des modèles pour les politiques ou prendre en charge la création de code pour les outils internes.

Ces utilisations, lorsqu’elles sont bien définies et surveillées, peuvent réduire le temps consacré au tâches répétitives et libérer des ressources pour les soins directs aux patients.

Mais, et c’est un grand mais, cela ne fonctionne que si nous traçons des limites claires. Parce qu’à partir du moment où ces outils s’insinuent dans les décisions prises par les patients, les risques commencent à l’emporter sur les gains.

Pourquoi ChatGPT n’est pas adapté à un usage clinique

Malgré ses capacités, ChatGPT n’est pas un outil médical. Il n’est ni certifié, ni vérifié, ni sûr pour le diagnostic, le pronostic ou le traitement. Et pourtant, grâce à son fluide, autoritaire et confiante, il peut facilement inciter les utilisateurs à faire confiance à ses sorties plus qu’ils ne le devraient.

Voici pourquoi c’est risqué :

1. Il ne peut pas garantir l’exactitude.

Les LLM sont entraînés sur des données à l’échelle d’Internet, qui comprennent des contenus obsolètes, faux ou biaisés. Ils ne citent pas de sources médicales fiables. Ils peuvent avoir des hallucinations, c’est-à-dire générer des réponses plausibles mais incorrectes, sans aucune détection d’erreur interne.

2. Il n’y a pas d’explicabilité.

Lorsqu’une IA suggère un diagnostic ou une voie de traitement, nous devons comprendre comment elle en est arrivée à cette conclusion. Avec ChatGPT, ce n’est pas possible. C’est une boîte noire, même pour ses propres développeurs.

3. Les données personnelles sont à risque.

Toutes les données saisies dans ChatGPT peuvent être stockées ou réutilisées. Nous ne savons pas toujours où vont ces données, combien de temps elles sont conservées ou si elles peuvent être réidentifiées. C’est un signal d’alarme en vertu du RGPD, en particulier dans le secteur de la santé.

4. Cela peut renforcer les préjugés.

Les données d’entraînement façonnent la sortie. Si ces données contiennent des préjugés, fondés sur le sexe, la race, le milieu socio-économique ou l’emplacement, le modèle peut les perpétuer. Dans le domaine de la santé, cela peut entraîner des traitements inégaux et de mauvais résultats pour les patients.

5. Il n’est pas légalement autorisé de prendre des décisions seul.

Le RGPD protège explicitement les individus contre les décisions prises uniquement par un traitement automatisé qui les affectent de manière significative. Cela inclut les décisions médicales. La surveillance humaine est légalement requise.

En résumé, confier à ChatGPT une quelconque responsabilité clinique est prématuré, dangereux et potentiellement illégal.

Alors, qu’est-ce qui est autorisé et qu’est-ce qui est intelligent ?

La manière la plus sûre, et actuellement la seule conforme au RGPD, d’utiliser ChatGPT dans le secteur de la santé est le support administratif interne. Cela inclut la rédaction de textes non sensibles, la création de résumés internes ou l’aide à la réflexion précoce sur les politiques ou le contenu.

Mais même dans ce cas, les organisations de soins de santé ne devraient procéder sans une politique interne claire. Cette politique doit définir exactement à quoi l’outil peut et ne peut pas être utilisé, et s’assurer que le personnel est formé pour repérer les hallucinations, valider les résultats et éviter de partager des données personnelles.

Par exemple, résumer un article scientifique sur le diabète est bien. Demander à ChatGPT d’expliquer les résultats de laboratoire d’un patient ne l’est pas.

Construire un cadre d’utilisation sûr

Toute organisation souhaitant intégrer des LLM comme ChatGPT dans les processus de santé doit être proactive. Cela signifie :

1. Création d’une politique formelle d’utilisation de l’IA

Cette politique d’utilisation de l’IA doit clairement décrire les cas d’utilisation autorisés, les restrictions sur les données personnelles, les attentes en matière d’examen et de validation, et les conséquences en cas de mauvais utilisation. Il ne suffit pas de dire au personnel « à utiliser avec prudence ». Fournissez-leur des instructions concrètes.

2. Formation des employés

Beaucoup de personnes ne comprennent toujours pas comment fonctionnent les LLM ni quels risques ils comportent. Investissez dans une formation de sensibilisation qui explique comment la technologie fonctionne, comment les préjugés se manifestent et pourquoi la confiance aveugle est dangereuse. La formation à la littératie en IA et la responsabilisation sont indispensables en vertu de la loi sur l’IA.

3. Assurer la conformité au RGPD

Aucun outil d’IA n’échappe aux lois européennes sur la protection de la vie privée. Si des données personnelles sont traitées, directement ou indirectement, les obligations standard s’appliquent. Cela inclut la limitation des finalités, la minimisation des données et les garanties relatives aux transferts et à la conservation. Pour des usages plus complexes, une AIPD (Analyse d’Impact relative à la Protection des Données) peut être exigée.

Conclusion : l’humain d’abord, assisté par l’IA

L’avenir des soins de santé inclura sans aucun doute l’IA. Mais nous devons garder notre boussole éthique en vue.

ChatGPT peut alléger la charge de travail, accélérer l’administration et soutenir le personnel dans les tâches de back-office, à condition qu’il soit utilisé dans un cadre responsable et réglementé. Il ne s’agit pas d’un raccourci pour le diagnostic, le traitement ou la communication avec le patient.

La leçon est simple : utilisez l’IA comme un outil, et non comme un substitut. Gardez les humains au courant. Priorisez la confidentialité. Et ne laissez pas les technologies brillantes détourner l’attention de la confiance qui sous-tend chaque interaction avec le patient.

FAQ : ChatGPT dans le secteur de la santé

Besoin d'aide pour rédiger votre politique d'utilisation de l'IA ou pour évaluer les risques LLM dans votre flux de travail ?

Construisons-l’ensemble. CRANIUM offre une expertise pratique et interdisciplinaire pour assurer la sécurité, l’intelligence et la conformité de votre organisation de soins de santé avec la législation et la réglementation en vigueur.

Partager ceci :

Écrit par

Charlotte Bourguignon

Charlotte Bourguignon

Anse Boogaerts

Anse Boogaerts

Hi ! Comment pouvons-nous vous aider ?

Vous avez besoin d’un responsable interne de la protection de la vie privée ou d’un DPD externe ? Prenez contact avec nous et nous chercherons ensemble la meilleure solution.