IA et pratique clinique

 

 

" Déployer une intelligence artificielle éthique sera l’enjeu du siècle qui vient " Jérémy Harroch

 

Rabelais écrivait dans Pantagruel “Science sans conscience n'est que ruine de l'âme”.

"Pour créer des technologies de santé basées sur l’IA qui profitent à tous les patients, nous avons besoin d’ensembles de données qui représentent la diversité des personnes auxquelles elles sont destinées. Malheureusement, les ensembles de données sur la santé ne représentent souvent pas de manière adéquate la diversité des populations." Standing Together

"Nous pensons que les ensembles de données sur la santé devraient être conservés en tenant compte de l'inclusivité et de la diversité. Nous élaborons actuellement des recommandations visant à garantir que les technologies de l'IA dans le domaine de la santé s'appuient sur des données suffisamment représentatives. Ces recommandations visent à encourager la transparence sur les personnes représentées dans les données, sur la manière dont elles sont représentées et sur l'utilisation des données de santé." Standing Together
 

 Préambule STANDING TOGETHER

"Le potentiel de l'intelligence artificielle (IA) pour notre santé doit être mis en balance avec les risques posés par les biais et les préjudices algorithmiques. Ces technologies peuvent fonctionner mieux pour certains groupes et moins bien pour d'autres, causant ou aggravant les inégalités en matière de santé.
L'objectif de STANDING Together est de veiller à ce que l'inclusivité et la diversité soient prises en compte lors du développement d'ensembles de données de santé et de technologies d'IA pour la santé.
Nous avons élaboré des recommandations, par le biais d'un processus de consensus international, qui fournissent des conseils sur la transparence concernant « qui » est représenté dans les données, « comment » les personnes sont représentées, et comment les données sont utilisées lors du développement de technologies d'IA pour la santé.
En posant les bonnes bases en matière de données, l'initiative DEBOUT ensemble garantit que « personne n'est laissé pour compte » alors que nous cherchons à exploiter les avantages de l'IA dans le domaine de la santé."
 

https://www.datadiversity.org/recommendations

Recommandations pour la diversité, l'inclusivité et la généralisabilité dans les technologies de santé et les ensembles de données sur la santé de l'intelligence artificielle

Description

Le potentiel bénéfique de l’intelligence artificielle (IA) pour la santé doit être mis en balance avec les risques posés par les biais et les préjudices algorithmiques. Ces technologies peuvent fonctionner mieux pour certains groupes et moins bien pour d’autres, provoquant ou aggravant les inégalités en matière de santé. 

Pour garantir que l’avenir des soins de santé basés sur l’IA soit inclusif et équitable, la collaboration STANDING Together a élaboré des recommandations internationales fondées sur un consensus pour mettre en évidence et atténuer les préjudices potentiels causés par les biais dans les données et les algorithme

 

 

Essais contrôlés randomisés évaluant l'intelligence artificielle dans la pratique clinique : une revue Ryan Han, Julián N Acosta, Zahra Shakeri, John PA Ioannidis, Eric J Topol, Pranav Rajpurkar La santé numérique Lancet, Elsevier mai 2024
https://www.thelancet.com/journals/landig/article/PIIS2589-7500(24)00047-5/fulltext
Article libre d'accès


Cette revue exploratoire d'essais contrôlés randomisés sur l'intelligence artificielle (IA) dans la pratique clinique révèle un intérêt croissant pour l'IA dans toutes les spécialités cliniques et dans tous les sites.

Les États-Unis et la Chine sont en tête pour le nombre d'essais, avec un accent sur les systèmes d'apprentissage profond pour l'imagerie médicale, notamment en gastro-entérologie et en radiologie.

Une majorité d'essais  [81 %] font état de critères d'évaluation principaux positifs, principalement liés au rendement ou à la performance du diagnostic ; cependant, la prédominance des essais monocentriques, le peu de rapports démographiques et les rapports variables sur l'efficacité opérationnelle soulèvent des inquiétudes quant à la généralisabilité et au caractère pratique de ces résultats.

Malgré les résultats prometteurs, il est crucial de prendre en compte la probabilité d'un biais de publication et la nécessité de recherches plus complètes, comprenant des essais multicentriques, des mesures de résultats diverses et des normes de reporting améliorées.

Les futurs essais sur l’IA devraient donner la priorité aux résultats pertinents pour les patients afin de bien comprendre les véritables effets et limites de l’IA dans les soins de santé
gr1 lrg 16
Sélection des études

gr2 lrg 8

Essais contrôlés randomisés sur l'intelligence artificielle dans la pratique clinique dans différents pays et spécialités

IIAA1


IIAA2

Discussion

 
Cet examen de la portée des publications AI RCT révèle plusieurs tendances et implications notables pour le développement et la mise en œuvre de systèmes d’IA dans la pratique clinique.
 
La répartition des essais entre spécialités cliniques et sites met en évidence une concentration d’ECR sur l’IA en gastro-entérologie, radiologie, chirurgie et cardiologie.
 
Notamment, l’accent est moins mis sur les soins primaires que sur les soins spécialisés, ce qui indique un domaine potentiel de recherche future.
 
La répartition géographique des essais révèle une prédominance d'études portant sur un seul pays, la plupart des essais étant réalisés aux États-Unis, suivis par la Chine.
 
Une revue systématique de 2023 des enregistrements d’essais sur des appareils basés sur l’IA et l’apprentissage automatique a révélé une répartition similaire des spécialités et des zones géographiques, et a également noté la prédominance des essais nationaux.
 
Cependant, cet examen de la portée a également révélé des tendances différentes, la Chine étant en tête en matière d'enregistrement d'essais et la radiologie étant la spécialité la plus courante.
 
Cette découverte suggère la nécessité d’une collaboration internationale accrue et d’essais multicentriques pour garantir la généralisabilité des systèmes d’IA à diverses populations et systèmes de santé.
 
La prédominance des essais monocentriques, avec une médiane de 359 patients, suggère que des environnements plus petits et contrôlés sont souvent choisis pour les essais de soins de santé sur l'IA ; cependant, le peu de rapports démographiques, en particulier sur la race et l'origine ethnique, soulèvent des inquiétudes quant à la représentativité de ces études.
 
La rareté des citations des directives de reporting CONSORT-AI souligne encore la nécessité d’une plus grande transparence dans les méthodes d’essai.
 
Cette transparence améliorerait la compréhension de l'applicabilité de l'essai à des populations plus larges, car des facteurs tels que les critères d'inclusion, le contexte et la durée du suivi influencent considérablement la généralisabilité des résultats. Les futurs essais devraient donner la priorité à des rapports complets et à la diversité des participants pour renforcer la validité externe de leurs résultats.
 
L’utilisation de systèmes d’apprentissage profond pour l’imagerie médicale, en particulier dans les systèmes vidéo, est une tendance répandue dans les applications d’IA évaluées dans les ECR.
 
Cette tendance est évidente dans le grand nombre d'essais évaluant les interventions de gastro-entérologie par vidéo, contrairement à la domination des algorithmes de radiologie basés sur l'image dans la littérature universitaire et les autorisations réglementaires.
 
Pour les algorithmes de radiologie basés sur l’image, d’autres modèles que les ECR pourraient être les plus adaptés pour garantir la précision du diagnostic. Les études de conception appariées permettent de comparer les performances diagnostiques chez les mêmes individus, éliminant ainsi toute confusion ;cependant, dans les applications de gastro-entérologie, telles que la détection d'adénome, les conceptions appariées ne sont pas réalisables car les lésions détectées sont généralement supprimées.
 
Cette tendance semble être motivée par quelques groupes qui représentent la plupart des essais de gastro-entérologie basés sur vidéo, ce qui indique que le domaine des essais cliniques sur l'IA est encore homogène en termes d'investigateurs, de conceptions d'essais et de mesures de résultats.
 
Les systèmes utilisant des données structurées telles que les dossiers de santé électroniques et les données de forme d'onde ont toutefois utilisé un mélange d'arbres de décision, de réseaux neuronaux, d'apprentissage par renforcement et d'autres techniques d'apprentissage automatique.
 
Cette variété de modèles et de sources de données montre l’adaptabilité de l’IA pour relever différents défis en matière de soins de santé. Des recherches supplémentaires sont nécessaires pour évaluer l’effet des systèmes d’IA qui intègrent le contexte clinique (plusieurs modalités) ou les antécédents cliniques (plusieurs moments) dans leur prise de décision, car ces facteurs sont cruciaux pour de nombreuses tâches cliniques.
 
L'écart entre notre taux de réussite et les taux de réussite des revues historiques d'ECR sur les interventions médicales et sur les systèmes d'IA dans les soins de santé
peut être attribué à nos définitions spécifiques de l’IA et de la pratique clinique, qui excluaient les études ne comportant pas d’intégrations cliniques et d’IA non linéaire, et à notre stratégie de recherche mise à jour qui incluait plusieurs essais nouveaux et auparavant négligés.
 
Notre revue étend la fenêtre d’examen jusqu’en 2023, capturant ainsi plus d’un an de progrès et un grand nombre d’essais récents dans ce domaine en évolution rapide par rapport aux revues précédentes.
 
Malgré ces résultats favorables, la généralisabilité des applications de l’IA reste incertaine.
 
Spécifier si les données de formation en IA proviennent des mêmes institutions ou de diverses institutions est crucial pour les essais. En outre, des analyses comparant les ECR menés dans des contextes de tests internes et externes pourraient fournir des informations précieuses sur la généralisabilité des performances de l’IA.
 
En outre, l’interprétation de ce taux de réussite doit être considérée à la lumière du caractère embryonnaire du domaine et de la probabilité d’un biais de publication. Une revue systématique de 2023 a identifié 627 essais technologiques basés sur l'IA enregistrés sur ClinicalTrials.gov , mais seulement neuf (1 %) ont été facilement identifiés comme publiés.
 
Parmi les essais répertoriés comme en cours ou pour lesquels aucun résultat n'est affiché, le nombre avec des résultats négatifs est inconnu, ce qui entraîne un retard dans leur réalisation ou dans l'affichage et la publication des résultats. Par conséquent, le biais de publication constitue une menace importante pour l’interprétation valide de l’effet global et de l’efficacité de l’IA dans la pratique clinique.
 
La plupart des essais évaluaient les interventions sur des critères d'évaluation liés au rendement ou à la performance du diagnostic. Bien que de tels essais offrent des preuves convaincantes des performances techniques prospectives des systèmes d’IA cliniques, ces preuves pourraient ne pas refléter avec précision l’effet global des systèmes d’IA sur les soins aux patients, car une sensibilité et une spécificité élevées ne se traduisent pas nécessairement par une amélioration des résultats pour les patients. Par exemple, une revue systématique de 2023 de 21 essais de coloscopie a révélé que, bien que l’assistance par l’IA ait contribué à augmenter la détection des polypes, elle n’a pas entraîné d’augmentation significative de la détection des adénomes avancés cliniquement critiques.
 
De manière plus générale, des résultats statistiquement favorables, tant dans les performances diagnostiques que dans d’autres essais d’IA, ne se traduisent pas nécessairement par des avantages cliniquement significatifs.
 
Certains essais ont évalué l'effet des systèmes d'IA sur les mesures de qualité de la gestion des soins, le comportement et les symptômes des patients, ainsi que la prise de décision clinique. Ces diverses mesures de résultats reflètent les différentes façons dont les systèmes d’IA peuvent influencer la pratique clinique, de l’amélioration de la qualité des soins à l’amélioration de l’expérience des patients et à l’information du jugement clinique. Pour mieux évaluer la véritable valeur des algorithmes d’IA dans les soins de santé, il est crucial que les preuves concrètes se concentrent sur des paramètres cliniquement significatifs tels que les symptômes et la nécessité d’un traitement, ainsi que sur les résultats à plus long terme tels que la survie.
 
En outre, des données probantes à plus grande échelle permettraient de mieux évaluer si l’ampleur absolue des avantages de ces résultats est substantielle ou non.
 
En termes d'efficacité opérationnelle, les résultats variaient selon les spécialités, un grand nombre d'essais faisant état d'augmentations ou de diminutions du temps opérationnel.
 
Cette découverte met en valeur le potentiel des systèmes d’IA pour rationaliser ou compliquer les flux de travail cliniques, en fonction de l’application et du contexte spécifiques.
 
Compte tenu de cette complexité, l’adoption réussie des outils d’IA dépendra de facteurs tels que l’efficacité opérationnelle, la rentabilité et le niveau de formation requis, ainsi que les performances. Par conséquent, les recherches futures ne devraient pas se concentrer uniquement sur les résultats cliniques, mais également sur ces aspects multiformes de la mise en œuvre, afin de fournir une compréhension plus complète de l'effet de l'IA sur la prestation des soins de santé.
 
En conclusion, le paysage actuel des ECR sur l’IA dans la pratique clinique montre un intérêt croissant pour l’application de l’IA dans un large éventail de spécialités cliniques et de lieux. La plupart des essais font état de résultats favorables, soulignant le potentiel de l'IA à améliorer la gestion des soins, le comportement et les symptômes des patients ainsi que la prise de décision clinique, mais ce succès précoce devrait être tempéré par la probabilité d'un biais de publication.
 
Le véritable succès des applications de l’IA dépend en fin de compte de leur généralisabilité à leurs populations de patients et à leurs contextes cibles, un sujet sur lequel des efforts comme l’initiative STANDING Together offrent des conseils précieux.
 
Pour comprendre de manière plus complète les véritables effets et limites de l'IA dans les soins de santé, davantage de recherches sont essentielles, notamment en mettant l'accent sur les essais multicentriques et l'incorporation de diverses mesures de critères d'évaluation, en particulier les résultats pertinents pour les patients.
 
Cet examen de la portée présente deux limites importantes.

Premièrement, la recherche d’études pertinentes a été menée uniquement en anglais. Cette restriction linguistique aurait pu exclure les essais pertinents publiés dans d'autres langues, limitant potentiellement l'exhaustivité et la généralisabilité de nos résultats.

Deuxièmement, malgré l’extension de la période d’examen jusqu’en 2023, notre revue ne prend pas en compte les tendances actualisées du risque de biais des essais. Les futures revues systématiques devraient aborder les tendances du risque de biais des essais (par exemple, en utilisant le risque de biais Cochrane et d'autres outils connexes) et fournir une analyse plus approfondie de la transparence des rapports (CONSORT-AI), compte tenu de l'afflux constant d'ECR.

Commentaire

Cet article "de base " définit les règles de la place de l'IA médicale en montrant les difficultés à venir. 

En imagerie médicale les données sont plus faciles à rassembler ; scanner, IRM, par contre plus difficile en échographie

Le recueuil de données médicales cliniqiue , c'est là que c'exprime toutes les difficultés de l'IA. La validié de ces données cliniques n'est pas évidente et cela pend du temps. 

IA et éthique : sujet brulant, mais oh combien important, on a besoin de transparence quand on s'epare de l'IA.
 
Les données qui sont utilisées appartiennent aux patients, comment préserver l'anonymat pour leur utilisation.
 
 
A LIRE +++
 

Les quatre éthiques de l’intelligence artificielle


Éthique informatique

Éthique algorithmique, robotique, artificielle

Éthique numérique

Éthique des usages de l’IA

https://journals.openedition.org/rac/29961

Vers une éthique de l'Intelligence Artificielle
"L’IA est la nouvelle frontière de l’humanité. Une fois que celle-ci sera franchie, une nouvelle forme de civilisation humaine verra le jour. Le principe directeur de l’IA n’est pas de devenir autonome ni de remplacer l’intelligence humaine. Mais nous devons nous assurer qu’elle est développée selon une approche humaniste, fondée sur des valeurs et les droits de l’homme. Nous faisons face à une question cruciale, à savoir quel type de société nous voulons pour demain. La révolution de l’IA ouvre de nouvelles perspectives passionnantes, mais les bouleversements anthropologiques et sociaux qu’elle engendre méritent une réflexion approfondie. "
https://www.un.org/fr/chronicle/article/vers-une-ethique-de-lintelligence-artificielle

haire éthique et IA
La chaire éthique & IA, labellisée dans le cadre de l’institut grenoblois MIAI, entend développer une approche philosophique de l’éthique de l’intelligence artificielle. Elle se veut également pluridisciplinaire car elle associe dans ses travaux des membres issus des disciplines suivantes : informatique, robotique, psychologie cognitive et clinique, sciences de l’information et de la communication, sciences de gestion. Elle vise une meilleure compréhension des enjeux sociaux, moraux et politiques du déploiement de l’IA, ainsi que la détermination de règles éthiques pour une IA démocratique, en lien avec ses partenaires économiques, culturels et sociaux. 
https://www.ethics-ai.fr/ 

ERHIQUE et IA

Forum mondial sur l’éthique de l’IA 2024 5 - 6 février 2024, Kranj Organisé par la Slovénie, UNESCO

"La bonne gouvernance de l'IA est l'un des défis les plus importants de notre époque, qui nécessite un apprentissage mutuel basé sur les leçons et les bonnes pratiques émergeant des différentes juridictions à travers le monde.

L'objectif de l'Observatoire mondial de l'éthique et de la gouvernance de l'IA est de fournir une ressource mondiale aux décideurs politiques, aux régulateurs, aux universitaires, au secteur privé et à la société civile afin de trouver des solutions aux défis les plus urgents posés par l'intelligence artificielle.

L'Observatoire présente des informations sur l'état de préparation des pays à adopter l'IA de manière éthique et responsable.

Il héberge également le laboratoire d'éthique et de gouvernance de l'IA, qui rassemble des contributions, des recherches percutantes, des boîtes à outils et des bonnes pratiques."

Dix principes fondamentaux définissent une approche de l'éthique de l'IA centrée sur les droits de l'homme.

UNE1
UNE2


https://www.unesco.org/fr/forum-ethics-ai