Intelligence artificielle générative et  considérations éthiques sur son usage dans les soins de santé.


Les usages de l'IA générative dans le champ de la santé sont en plein développement. Les différentes applications publiées dans les revues scientifiques sont-elles toutes éthiques ? Nous rapportons dans ce billet une excellente analyse publiée récemment dans la revue anglaise The Lancet par des chercheurs des universités de Singapour, Londres et Anvers, publication consacrée aux aspects éthiques de l'usage de l'intelligence artificielle générative en médecine.

Generative artificial intelligence and ethical considerations in health care: a scoping review and ethics checklist.

Ning Y, Teixayavong S, Shang Y, Savulescu J, Nagaraj V, Miao D, Mertens M, Ting DSW, Ong JCL, Liu M, Cao J, Dunn M, Vaughan R, Ong MEH, Sung JJ, Topol EJ, Liu N.Lancet Digit Health. 2024 Sep 17:S2589-7500(24)00143-2. doi: 10.1016/S2589-7500(24)00143-2. Online ahead of print.PMID:39294061


CONTEXTE


Au cours des dernières années, le développement de Chat Generative Pre-trained Transformer (ChatGPT) et d'autres chatbots alimentés par de grands modèles de langage (LLM pour Large Language Model) a attiré l'attention du grand public, des chercheurs et des parties prenantes d'un développement rapide de la technologie de l'IA générative. GenAI se différencie de la technologie d'IA générale en raison de sa capacité à générer du contenu réaliste, tel que du texte (comme ChatGPT et Gemini), des images (comme Midjourney et DALL· E) et des vidéos (comme Sora).

Les capacités prometteuses des modèles de GenAI sont explorées dans leurs applications médicales, notamment en santé mentale,  pour le cancer du sein, les soins diététiques et l'éducation médicale.

Cependant, les applications médicales de GenAI soulèvent des préoccupations éthiques comme celles déjà en cours sur l'IA en général. Par exemple, le grand volume de données des utilisateurs de LLM soulève le débat sur les violations de la vie privée, comme en témoigne la brève interdiction de ChatGPT en Italie pour clarifier les problèmes de confidentialité (McCallam, S. ChatGPT banned in Italy over privacy concerns. BBC News, April 1, 2023 https://www.bbc.com/news/technology-65139406)(McCallam, S. ChatGPT accessible again in Italy. BBC News, April 28, 2023. https://www.bbc.com/news/technology-65431914).


Les données générées par GenAI pourraient divulguer des informations personnelles si certains détails de la vie privée étaient capturés pour reproduire des échantillons d'entraînement en vie réelle. (Li, J ∙ Cairns, BJ ∙ Li, J ∙ et al. Generating synthetic mixed-type longitudinal electronic health records for artificial intelligent applications. NPJ Digit Med.2023; 6:1-18).

Comme GenAI est formé pour générer des résultats réalistes basés sur des modèles appris à partir de données et qu'elle peut créer des "hallucinations" (c'est-à-dire des résultats incorrects et trompeurs), garantir l'exactitude des faits pour les applications médicales nécessite beaucoup d'efforts (Singhal, K ∙ Azizi, S ∙ Tu, T ∙ et al. Large language models encode clinical knowledge. Nature. 2023; 620:172-180).

La stochasticité (c'est à dire le caractère aléatoire) des sorties de GenAI, la vulnérabilité aux injections rapides de données et l'opacité de ces données d'entrée compliquent l'évaluation de l'équité clinique de GenAI, qui repose principalement sur la performance prédictive de l'IA dans le contexte actuel.

(Liu, M ∙ Ning, Y ∙ Teixayavong, S ∙ et al. A translational perspective towards clinical AI fairnessNPJ Digit Med. 2023; 6:1-6)

Tous ces facteurs conduisent à des discussions animées et à des appels urgents en faveur de nouvelles directives, réglementations et législations sur GenAI,,  en particulier lors de son usage dans les soins de santé et dans l'éducation médicale.

(European Parliament. EU AI Act: first regulation on artificial intelligence. https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence)

La technologie émergente représentée par GenAI a été rapidement déployée auprès d'une communauté d'utilisateurs vaste et diversifiée, ce qui explique pourquoi il y a des discussions animées sur ses implications éthiques à travers les médias sociaux et au sein de la communauté des chercheurs.

(Minssen, T ∙ Vayena, E ∙ Cohen, IG. The challenges for regulating medical use of ChatGPT and other large language models. JAMA. 2023; 330:315-316)

Cependant, d'autres méthodes de GenAI, telles que le réseau antagoniste génératif (GAN ou Generative Adversial Networks) (Goodfellow, I ∙ Pouget-Abadie, J ∙ Mirza, M ∙ et al. Generative adversarial nets https://papers.nips.cc/paper_files/paper/2014/hash/5ca3e9b122f61f8f06494c97b1afccf3-Abstract.html) n'ont pas été prises en compte dans les discussions éthiques actuelles, même si ces méthodes ont été utilisées dans la recherche médicale et sont soumises aux mêmes règles éthiques.

Le GAN (et les autres méthodes de GenAI associées) sont souvent utilisés pour répondre à certaines préoccupations éthiques dans la recherche médicale (par exemple, pour protéger la vie privée en masquant des images et des vidéos ou en créant des données synthétiques).

(Cai, Z ∙ Xiong, Z ∙ Xu, H ∙ et al. Generative adversarial networks: a survey toward private and secure applications ACM Comput Surv. 2021; 54:1-38) (Thambawita, V ∙ Hicks, SA ∙ Isaksen, J ∙ et al. DeepSynthBody: the beginning of the end for data deficiency in medicine 2021 International Conference on Applied Artificial Intelligence (ICAPAI) IEEE, New York, NY, 2021; 1-8)

(Hernandez, M ∙ Epelde, G ∙ Alberdi, A ∙ et al. Synthetic data generation for tabular health records: a systematic review Neurocomputing (Amst). 2022; 493:28-45).


Une enquête plus approfondie sur les discussions actuelles vis à vis de l'usage de GenAI, en particulier celles qui suscitent des préoccupations éthiques, fournirait une vision plus holistique de ce sujet important, et pourrait finalement aider à identifier des points d'action dans la recherche sur GenAI. Dans cette analyse, nous avons cherché à comprendre les réponses de la communauté des chercheurs aux problèmes éthiques potentiels de GenAI dans son usage pour les soins de santé. Sur la base de ces résultats, nous avons élaboré une liste de contrôles de nature éthique pour rendre opérationnelles les directives éthiques existantes, cette liste pouvant être utilisée par les revues, les comités d'examen institutionnels, les bailleurs de fonds et les régulateurs afin de promouvoir une recherche responsable sur l'usage de GenAI dans les soins de santé.


MÉTHODE


Nous avons réalisé une revue systématique des discussions éthiques associées à GenAI dans les soins de santé. La méthode PRISMA a été utilisée pour cette revue.


Stratégie de recherche et critères de sélection

Nous avons recherché dans PubMed, Embase (base de données Excerpta Medica, Ovid), Web of Science et Scopus des articles écrits en anglais avec un ensemble de termes de recherche associés à trois concepts principaux : « éthique de l'IA », « IA générative » et « soins de santé », articles qui ont été publiés entre le 1er janvier 2013 et le 25 juillet 2023. Des définitions détaillées des trois concepts, des termes de recherche et de la stratégie de recherche ont été précisées.

Nous avons exclu les articles qui ne relevaient pas du domaine des soins de santé, qui n'appliquaient pas GenAI ou qui ne traitaient pas de questions éthiques liées à l'utilisation de GenAI dans les soins de santé. Nous avons également exclu les articles qui n'ont pas été évalués par des pairs avant leur publication, ainsi que ceux n'ont pas été publiés en tant qu'articles de recherche (par exemple, des affiches de conférences, des résumés de conférences ou des chapitres de livres), ou qui ne sont pas complets (c'est-à-dire des articles ne citant pas plus de dix références) ou qui ne sont pas écrits en anglais.

L'objectif principal de cette revue est de comprendre les évaluations éthiques actuelles de la recherche pour GenAI et d'éclairer la pratique future. Par conséquent, nous avons limité notre examen à la littérature scientifique publiée qui reflète une qualité raisonnable de rapports éthiques acceptés par le milieu de la recherche et qui n'incluait pas de littérature grise (p. ex., les prépublications).


Analyse des données

Les articles que nous avons trouvés ont été divisés en trois parties et examinés en fonction du titre et du résumé par trois paires d'examinateurs indépendants (ST et VN, YN et YS, et YN et DM), conformément aux critères d'exclusion. Les incertitudes et les conflits ont été résolus par des discussions avec ST et YN. Les articles inclus ont été ensuite examinés sur la base du texte intégral avec le même ensemble de critères d'exclusion.

À partir des articles inclus, nous avons extrait des informations sur sept variables relatives au type d'article, à GenAI et à l'éthique : (1) l'article décrit-il des recherches originales (y compris des recherches empiriques et théoriques originales sur GenAI) ou des articles de type revue (par exemple, des revues, des points de vue ou des éditoriaux qui couvrent spécifiquement GenAI) ?

(2) quelles sont les modalités de données pour l'application GenAI ?

(3) quels sont les modèles GenAI en discussion ?

(4) quel a été le rôle de GenAI (c'est-à-dire a-t-il causé ou résolu des problèmes éthiques) ;

(5) Quelles sont les questions éthiques discutées dans l'article ?

(6) si GenAI a causé des problèmes éthiques, quelle solution a été proposée ?

(7) l'article avait-il des objectifs éthiques ou des discussions éthiques dédiées (par opposition à une brève mention de l'éthique dans les informations générales ou la discussion générale).

Pour la variable (7), nous avons identifié un sous-ensemble d'articles ayant une orientation éthique plus forte pour l'élaboration ultérieure de la liste de contrôle. Ce sous-ensemble comprenait des articles de type revue visant à discuter des questions éthiques liées à GenAI, et des recherches originales motivées et encadrées par des considérations éthiques spécifiques ou discutant en détail des implications éthiques de GenAI.

Pour résumer les questions éthiques abordées dans les articles inclus dans la revue, nous les avons classées selon un système de codification en neuf principes éthiques généraux qui ont été identifiés comme étant les plus pertinents dans les directives d'éthique de l'IA et dans l'application de l'IA dans les établissements de soins de santé.

(Fournier-Tombs, E ∙ McHardy, J. A medical ethics framework for conversational artificial intelligence. J Med Internet Res. 2023; 25, e43068)


En raison de l'accent mis sur les préoccupations éthiques concernant les LLM dans la recherche au cours des dernières années, nous avons résumé l'application de GenAI sur la base de trois modalités de données générales, à savoir le texte, l'image (y compris la vidéo) et les données structurées (par exemple, les données tabulaires et les données de signal telles que l'électrocardiogramme ou le signal vocal), afin d'étudier toute différence dans les considérations éthiques associées. Les informations sur les principes éthiques discutés et le rôle de GenAI par modalité de données ont été analysés à l'aide de cartes de lacunes en matière de données probantes afin de comprendre le paysage actuel de la recherche dans le domaine de l'usage de GebAI dans les soins de santé.


RÉSULTATS


Notre revue a permis d'identifier 1417 articles, dont 193 ont été inclus dans la revue. Les 193 articles inclus ont été publiés entre le 1er janvier 2018 et le 25 juillet 2023 ; 162 articles sont des articles de recherche originaux et les 31 autres articles sont des articles de type revue. 85 articles ont fait l'objet de discussions ou d'enquêtes quantitatives sur des questions éthiques, dont neuf articles originaux de recherche et 20 articles de synthèse qui avaient une orientation éthique forte.


GenAI dans les soins de santé basés sur les données textuelles

41 des 193 articles traitaient des considérations éthiques des applications de GenAI pour les données textuelles, 20 articles décrivant des développements méthodologiques ou des applications de GenAI et 21 autres articles décrivant un travail de type revue. Bien que certains de ces articles de type revue aient utilisé le terme général GenAI, le texte principal et les preuves se sont concentrés sur les LLM. 28 articles ont enquêté ou ont eu des discussions approfondies sur des questions éthiques, les 13 autres articles n'ont abordé que brièvement certains aspects éthiques.

Parmi les 41 articles qui ont abordé les considérations éthiques, 29 se sont concentrés sur les problèmes éthiques causés par les LLM (dont 16 se concentraient spécifiquement sur les modèles de transformateurs génératifs pré-entraînés), couvrant un large éventail de scénarios d'application. Ils ont examiné l'application des neuf principes éthiques définis. Trois articles ont également abordé des préoccupations éthiques telles que les aspects moraux (par exemple, la compassion) des résultats de LLM, l'interaction homme-IA et les droits des LLM à être considérés comme coauteurs dans les articles scientifiques (que nous considérons comme une dixième catégorie distincte regroupée comme "autre"). Parmi ceux-ci, un article n'a commenté que brièvement la nécessité de tenir compte de l'éthique dans les LLM.

Bien que tous les principes éthiques soient importants, certains sont discutés plus souvent que d'autres, notamment la non-malfaisance (également appelée bienveillance dans la littérature), l'équité et la protection de la vie privée, et certains articles ont soulevé des préoccupations uniques liées à l'IA en général. En plus de générer des résultats médicalement inexacts,  les LLM peuvent causer des dommages en omettant partiellement des informations d'entrée. Beaucoup d'efforts sont nécessaires pour évaluer la précision des LLM pour les applications médicales, y compris la conception d'ensembles de données de référence et les évaluations manuelles. La capacité des LLM à s'adapter en permanence sur la base de nouvelles connaissances soulève des inquiétudes quant à la possibilité qu'ils peuvent menacer l'autonomie des patients et des cliniciens en milieu médical.

La capacité de GenAI à travailler avec des entrées et des sorties non structurées et flexibles offre des possibilités uniques d'atténuer certaines préoccupations éthiques. 15 des 41 articles visaient à résoudre certains problèmes éthiques existants (par exemple, la confidentialité des données médicales) en utilisant des LLM et d'autres GenAI (par exemple, GAN (Generative Adversial Networks), auto-encodeur ou un modèle de diffusion) pour réduire les problèmes de confidentialité en générant du texte médical synthétique,  réduire les disparités en matière de soins de santé en fournissant des services et une assistance accessibles, et détecter la désinformation liée à la santé.

Certains articles ont directement évalué la confiance humaine dans les LLM, car ces modèles peuvent générer des conversations de type humain ou ont utilisé les LLM pour expliquer les systèmes d'IA afin d'améliorer la confiance et la transparence. Bien que la plupart des articles se soient concentrés sur l'identification des problèmes éthiques causés par GenAI ou sur la proposition de solutions basées sur GenAI, trois articles ont discuté des deux modalités (LLM et GenAI) pour fournir une perspective plus équilibrée.


GenAI pour les soins de santé basés sur l'image et les données structurées

Contrairement aux divers scénarios d'application de GenAI sur des données textuelles, lorsqu'il s'agit d' images et de données structurées, l'utilisation de GenAI se concentre sur la synthèse et le cryptage des données. Ainsi, la plupart des articles ont discuté des développements méthodologiques de GenAI dans un ensemble plus distinct et ciblé les questions éthiques.

Plus de la moitié des articles sur les données d'image (63 sur 98 articles) et les données structurées (33 sur 58 articles) ne mentionnent les considérations éthiques que comme une brève motivation pour des développements méthodologiques ou comme un point de discussion général. Le reste des articles comprenait des discussions plus approfondies ou des évaluations (principalement quantitatives) de questions éthiques.

Parmi ces 155 articles (car un article couvrait plusieurs modalités), 11 étaient des articles de type revue, dont dix articles examinaient des méthodes mentionnant une ou deux perspectives éthiques et un seul article traitait en détail des préoccupations éthiques sur les applications de GenAI.

La résolution des problèmes de confidentialité était l'objectif principal des articles (74 articles pour les données d'image et 50 articles pour les données structurées), en générant principalement des données synthétiques avec GAN.

Huit articles sur les données d'image et neuf articles sur les données structurées ont utilisé GenAI pour réduire les biais (par exemple, en synthétisant des données de sous-groupes sous-représentés dans des bases de données existantes).

À l'instar des LLM, GenAI a contribué à la confiance et à la transparence des classifications d'images en générant des images réalistes. De plus, GenAI a été utilisé pour améliorer la responsabilisation et, par conséquent, la confiance dans la classification des images en améliorant la qualité des entrées. Pour ces deux modalités de données, nous n'avons pas vu de discussions explicites sur la résolution des problèmes d'autonomie ou d'intégrité avec GenAI, et pour les données structurées, les articles n'ont pas eu de discussions sur la confiance ou sur la transparence.

Seuls 11 articles portant sur les données d'image ont discuté de manière sélective certains problèmes éthiques que GenAI peut causer, sans discussion spécifique sur l'autonomie ou l'intégrité des données.

Pour les données structurées, seuls quatre articles ont abordé les problèmes d'équité, de confidentialité ou de sécurité des données causés par GenAI. Deux articles sur les données structurées comprenaient à la fois les perspectives de cause et de résolution, discutant des questions éthiques qui pourraient découler des limites des méthodes proposées, en particulier le risque de représentation biaisée des sous-groupes de patients lors de la synthèse de données pour résoudre des problèmes de confidentialité.

Alors que la synthèse des données est proposée comme solution à l'insuffisance des données médicales pour la recherche en raison de problèmes de confidentialité et de sécurité, de nombreux articles ont souligné la nécessité d'assurer la qualité et la fiabilité des données pour la recherche médicale. Un article a introduit des mesures pour quantifier la préservation de la vie privée et l'utilité des données structurées, mais des travaux supplémentaires sont nécessaires pour étendre les modalités d'image ou de texte, et pour préserver les caractéristiques importantes des données originales et des petits sous-groupes de patients. Le tableau ci-dessous résume les résultats de cette revue de la littérature médicale.






















DISCUSSION

Malgré le nombre croissant d'articles traitant de préoccupations éthiques relatives à l'usage de GenAI dans les soins de santé, certains aspects éthiques importants sont absents de la littérature actuelle. Notre examen résume les insuffisances de la littérature actuelle sur la base de 193 articles, dans lesquels nous décrivons les quatre lacunes de la recherche actuelle. De plus, nous présentons la liste de contrôle TREGAI et expliquons comment elle pourrait contribuer à une recherche sur GenAI dans les soins de santé plus responsable et dans des contextes d'application plus larges.


Premièrement, dans la recherche actuelle sur GenAI, il y a peu de solutions apportées aux problèmes éthiques.

Pour les articles axés sur l'identification des problèmes éthiques causés par GenAI, les réglementations et les directives étaient les solutions les plus fréquemment évoquées, comme dans 11 des 29 articles traitant des problèmes éthiques causés par les LLM, et dans un article examinant les problèmes causés par GenAI en imagerie.

Au total, 16 des 29 articles sur les problèmes éthiques causés par les LLM ont discuté des solutions possibles, et 11 de ces articles ont mentionné des solutions, au-delà de la gouvernance, qui comprenaient la garantie de l'autonomie des médecins sur les LLM, l'amélioration de la sensibilisation des utilisateurs aux limites des LLM et la mise en œuvre d'une technologie de sécurité.

Les 13 autres articles n'ont discuté d'aucune solution. Bien que les lignes directrices et les règlements pour l'utilisation appropriée de GenAI soient importants, des difficultés peuvent survenir lors de l'application de directives éthiques reposant sur un ensemble de principes, tels que l'interprétation des exigences spécifiques d'un principe éthique général dans un contexte donné d'application de GenAI ou parce que les directives offrent peu d'aide lorsque des compromis doivent être trouvés entre des principes éthiques.

De plus, en raison de la complexité et des progrès rapides des méthodes et de la technologie, le respect des réglementations légales n'empêche pas nécessairement les violations de nature éthique. Par exemple, la règle de confidentialité appliquée par la Health Insurance Portability and Accountability Act du Congrès américain est insuffisante pour prévenir les violations de la vie privée (et quelques autres questions éthiques) par la technologie de pointe utilisée par les LLM et en outre, la législation européenne sur l'IA (EU AI Act), plus récente, introduite en 2024, est inadéquate dans des aspects tels que la définition formelle de l'IA et la gestion des risques.

De même, il est peu probable que les utilisateurs généraux de GenAI comprennent suffisamment bien la technologie pour accorder une confiance raisonnable à ses résultats ou être en mesure de déceler des informations erronées potentielles. En revanche, la nature non-humaine et une tonalité confiante et professionnelle des LLM bien conçus pourraient leur valoir une confiance injustifiée de la part des utilisateurs profanes. Bien que l'ampleur d'une telle influence ne soit pas encore claire, l'utilisation de LLM pourrait potentiellement entraîner davantage de fuites de confidentialité et de dommages causés par des informations (partiellement) incorrectes ou biaisées.


Deuxièmement, la discussion sur les préoccupations éthiques au-delà des LLM est insuffisante.

La plupart des discussions éthiques ont porté sur les LLM, malgré l'utilisation d'autres méthodes de GenAI (comme GAN) pour les données textuelles et plus particulièrement pour d'autres modalités de données. Les chatbots alimentés par LLM, tels que ChatGPT, rendent cette technologie puissante et facilement accessible aux professionnels de santé, aux étudiants en médecine et au grand public sans avoir besoin d'acquérir beaucoup de connaissances techniques, augmentant ainsi considérablement l'impact de toute question éthique qui peut en résulter.

Cependant, des insuffisances et des préoccupations similaires s'appliquent à d'autres méthodes de GenAI et peuvent aussi affecter les soins de santé directement ou indirectement sur le long terme. Par exemple, les approches basées sur GAN (Generative Adversial Networks) ont été exploitées pour des escroqueries assurantielles en modifiant ou en injectant de fausses preuves de maladies dans des images médicales, ou ont été ciblées par des cyberattaques pour voler des informations confidentielles et bien d'autres activités malveillantes, mais ces sujets sont plus souvent abordés d'un point de vue purement technique que d'un point de vue éthique. Les approches basées sur les GAN sont en train de devenir (si ce n'est déjà fait) les modèles de synthèse de données dans la recherche médicale. Cependant, les points de repère sont encore insuffisants pour évaluer de manière exhaustive la qualité des données synthétiques afin de préserver la vie privée et de soutenir des recherches futures impartiales, fiables et éthiques.


Troisièmement, la recherche avec GenAI n'a pas de points de référence communs pour engager des discussions éthiques.

Bien que les articles de points de vue et de perspectives publiés dans des revues de premier plan traitent d'un large éventail de questions éthiques qui pourraient découler des applications des LLM dans les soins de santé et dans d'autres contextes, les articles sur GenAI pour les images ou les données structurées se sont largement concentrés sur un ensemble restreint de questions, en particulier la protection de la vie privée, qui pourraient être résolues par des développements méthodologiques ou technologiques.

Les discussions éthiques peuvent être difficiles pour les chercheurs en GenAI, car ils ne sont souvent pas suffisamment formés à la définition et à l'interprétation des principes éthiques pertinents liés à l'usage de l'IA dans les soins de santé. Cependant, au cours des dernières années, certaines études ont inclus des discussions éthiques au-delà de leurs objectifs principaux, ce qui montre un intérêt croissant, au sein de la communauté des chercheurs, sur les questions questions.

Des recommandations et des guides ont été élaborés sur l'application générale de l'IA dans les soins de santé, mais à l'heure actuelle, ils ne sont pas systématiquement pris en compte dans les applications de GenAI.

(Morley, J ∙ Machado, CCV ∙ Burr, C ∙ et al. The ethics of AI in health care: a mapping review Soc Sci Med. 2020; 260, 113172) (Ghallab, M. Responsible AI: requirements and challenges. AI Perspect. 2019; 1:3)

Différents auteurs peuvent approuver des définitions différentes des termes éthiques ou sélectionner un sous-ensemble de mots-clés éthiques pour la discussion, sans justification claire. Par exemple, le principe éthique de la bienfaisance met l'accent davantage sur l'amélioration du bien-être des patients que sur l'évitement des dommages, et ce principe a été beaucoup moins discuté dans la littérature. Bien que certains principes éthiques puissent être moins pertinents dans certains scénarios d'application de GenAI que dans d'autres (par exemple, l'utilisation de GenAI pour synthétiser des données structurées pourrait ne pas avoir un effet aussi direct sur l'autonomie que les données textuelles), de telles déclarations devraient être faites explicitement par les chercheurs avec des justifications raisonnables, plutôt que d'être déduites a posteriori par les utilisateurs. Des discussions éthiques incomplètes pourraient conduire à des développements méthodologiques insuffisants ou à des applications discutables de GenAI.


Enfin, il y a peu de discussions éthiques sur le modèle de GenAI multimodale.

La plupart des articles que nous avons examinés impliquaient des GenAI unimodaux (c'est-à-dire des modèles qui acceptent et génèrent des données dans une seule modalité). Parmi les trois articles qui portaient sur plusieurs modalités, seulement deux traitaient de GenAI multimodale (en particulier de GAN), lequel générait simultanément des images radiographiques pulmonaires et des rapports de radiologie.

Bien que l'IA générique multimodale ne soit pas encore largement appliquée dans les soins de santé,  des progrès notables ont été réalisés dans d'autres domaines. Ces LLM étendus stimuleront certainement des applications utiles en santé et au-delà. Cependant, la complexité accrue des modèles et des paramètres d'application compliquera davantage la façon dont la fiabilité des modèles sera évaluée (ce qui est déjà difficile pour les LLM existants), ainsi que l'étendue de leur capacité et l'adoption généralisée d'une telle technologie. Tout cela peut amplifier l'impact des questions éthiques.

Des recherches en cours permettent de mettre au point une GenAI multimodale à partir d'une approche à la fois créative et fonctionnelle visant à reconstruire les données d'entrée des participants à une étude (qu'il s'agisse d'images ou de texte) et en analysant leur IRM fonctionnelle (IRMf). Une telle approche pourrait être appelée "lecture de pensée inversée".

Chacune de ces méthodologies s'est concentrée sur une seule modalité d'entrée, mais GenAI entraînée sur une modalité peut aussi être appliquée à d'autres modalités grâce à des ajustements minimes.

Bien que ces études aient fourni des informations supplémentaires sur les fonctions cérébrales et potentiellement certains avantages pour la santé, l'extraction directe d'informations à partir d'activités cérébrales au-delà d'objectifs liés à la santé peut poser d'importantes préoccupations sur le plan de la neuroéthique. Seuls deux des quatre articles ont explicitement discuté de ce genre de préoccupations éthiques, dans lequel un article a effectué des expériences supplémentaires pour montrer la préservation de la vie privée des patients et l'autre article a seulement souligné le besoin général de réglementations. Une approche pluridisciplinaire est donc nécessaire pour assurer une utilisation éthique des données médicales (y compris, mais sans s'y limiter, avec l'IRMf) lors de l'élaboration de GenAI multimodale pour et au-delà des applications de soins de santé.


Pour combler ces lacunes dans la recherche, il faut un effort de collaboration entre les chercheurs, les organismes de réglementation et les intervenants.

Malgré les controverses sur la façon d'attribuer la responsabilité et la crédibilité aux dommages et aux avantages causés par GenAI, les chercheurs qui développent GenAI (ou modifient les GenAI existants) devraient être responsables de la compréhension et de la divulgation des capacités et des limites, et ceux qui appliquent les GenAI existants dans leurs recherches devraient être en mesure de justifier et de discuter de la pertinence de leur usage et des problèmes potentiels qui peuvent advenir dans ce contexte d'usage.

Certains des articles que nous avons examinés ont commencé à appeler les développeurs de GenAI à prendre des mesures pour réduire les problèmes éthiques, par exemple en soulignant leur responsabilité dans la prévention des problèmes éthiques, en premier lieu, et en développant des points de référence pour évaluer l'éthique des LLM, afin de faciliter le développement future, mais de telles discussions ne sont pas facilement opérationnalisées dans les centres de recherches sur GenAI puisqu'il n'existe aucun guide détaillé et exploitable. Par conséquent, nous proposons de renforcer les considérations éthiques dans la recherche sur GenAI dans les soins de santé en rendant obligatoire une évaluation standardisée et systématique lors de l'examen d'un article par les pairs grâce à l'utilisation de notre liste de contrôle TREGAI (tableau ci-dessous).


Sur la base de l'élaboration des neuf principes éthiques établis et du principe important supplémentaire de la bienfaisance, notre liste de contrôle TREGAI fournit un outil pour renforcer les évaluations éthiques dans la recherche sur GenAI. Afin de promouvoir l'opérationnalisation des investigations éthiques systématiques dans la pratique de la recherche, nous proposons cette liste de contrôle à l'usage des revues scientifiques, des comités d'examen institutionnels, des bailleurs de fonds et des régulateurs pour évaluer les discussions éthiques dans les nouvelles recherches (ou propositions) à venir sur GenAI.

À l'aide de cette liste de contrôle, les utilisateurs peuvent demander aux chercheurs de documenter de manière transparente toutes les questions éthiques qui sont liées à GenAI, de fournir des discussions supplémentaires sur les solutions liées à GenAI (c'est-à-dire des solutions aux problèmes causés par GenAI ou l'utilisation de GenAI comme solution aux problèmes éthiques) et d'indiquer où trouver ces discussions dans le manuscrit proposé à la publication.

La liste de contrôle TREGAI sert de référence à l'examen par les pairs, par les philosophes et les éthiciens, en se concentrant sur la qualité des discussions éthiques et les améliorations possibles. Lorsqu'un principe éthique est jugé non applicable, les chercheurs sont fortement encouragés à justifier cette conclusion dans le manuscrit. Les principes éthiques de la liste de contrôle TREGAI varient en termes de niveau d'abstraction et peuvent ne pas couvrir toutes les préoccupations éthiques (par exemple, lorsque l'on travaille avec une GenAI multimodale). Nous suggérons alors aux revues et aux autres utilisateurs de la liste de contrôle TREGAI de travailler avec des éthiciens afin d'adapter cette liste de contrôle et les définitions des principes éthiques à leurs besoins spécifiques.


















CONCLUSIONS


GenAI est une technologie puissante qui peut jouer divers rôles dans le domaine des soins de santé. Le non-respect des normes éthiques dans ces rôles peut affecter la vie quotidienne en créant des services inefficaces et en entraînant de moins bons résultats en matière de santé.

Cependant, GenAI est une innovation récente, notamment en ce qui concerne son utilisation ou sa mise en œuvre dans la pratique médicale. Le nombre d'études publiées jusqu'à cette revue est relativement faible, mais l'identification précoce des problèmes liés aux caractères de GenAI pourrait contribuer à promouvoir la confiance et l'adoption par les cliniciens, les patients et le grand public. En suggérant cette liste de contrôle TREGAI pour une GenAI éthique et en la maintenant en ligne pour intégrer les nouvelles réglementations, nous préconisons une évaluation systématique et équilibrée des considérations éthiques au-delà des perspectives méthodologiques et technologiques standard, lesquelles pourraient être étendues à l'IA générale et faciliter ainsi un développement technologique plus responsable et digne de confiance.


COMMENTAIRES. Le lecteur intéressé par le sujet est invité à lire la totalité de cette revue.

Pour mieux comprendre cet article, il importe de faire la distinction entre "LLM" (grands modèles de langage, comme ChatGPT) et l'IA générative ou GenAI.

Les LLM  se sont développés grâce aux progrès du traitement du langage naturel (NLP ou Natural Language Processing) par Machine Learning et se concentrent sur le traitement et la génération d'un langage qui ressemble à de la communication humaine. Ils sont conçus pour saisir et développer un langage qui imite la pensée humaine. Ils peuvent générer des e-mails et des rapports résumés.

GenAI fait référence à des systèmes qui créent du contenu original par Deep Learning en analysant des modèles dans de grands ensembles de données. Ils génèrent du texte, mais également des images, des vidéos (Generative Adversial Networks ou GAN), permettant ainsi d'automatiser des taches. LLM et GenAI recèlent tous deux un énorme potentiel.  Chacun présente des avantages uniques, et il est essentiel de comprendre quand choisir l'un plutôt que l'autre ou comment les mélanger pour améliorer les flux de travail.

Cette revue nous éclaire sur les problèmes éthiques qui peuvent se poser par leur usage en médecine. Il faut retenir de cette revue remarquablement exhaustive sur les données probantes que les problèmes éthiques dans l'usage de l'IA médicale sont insuffisamment abordés dans les publications actuelles issues de la recherche médicale, notamment les publications qui décrivent les applications de GAN. Avec cette évolution de l'IA générative (GAN), il faut se prémunir en santé des fausses images, des fausses vidéos, des faux rapports, etc. Les auteurs proposent une grille d'évaluation éthique qui devrait permettre de mieux prévenir les possibles dérives de l'IA médicale et de légitimer par contre certaines recherches dédiées aux soins de santé.


5 octobre 2024