Gouvernance de l'IA

 

 

Governing synthetic data in medical research: the time is now

Gouverner les données synthétiques dans la recherche médicale : il est temps d’agir
Boraschi, Daniela et al.

The Lancet Digital Health, Volume 0, Issue 0, 20/02/2025 
https://www.thelancet.com/journals/landig/article/PIIS2589-7500(25)00011-1/fulltext?rss=yes
Article libre d'accès

 La gouvernance des technologies d'intelligence artificielle (IA) générative en médecine est devenue un sujet de discussion majeur en raison des inquiétudes concernant leur développement et leur utilisation rapides, qui ont dépassé les mesures réglementaires existantes

Les résultats d'une récente enquête à grande échelle soulignent l'urgence d'une surveillance renouvelée, révélant qu'un (20 %) sur cinq des médecins généralistes basés au Royaume-Uni interrogés utilisent des chatbots à grand modèle de langage (LLM) pour les tâches cliniques. 

Bien qu'une grande attention ait été portée sur les chatbots populaires et largement disponibles basés sur le LLM, tels que ChatGPT (OpenAI et Microsoft), relever les défis non résolus liés à la confidentialité, aux préjugés, à l'exactitude et à la responsabilité nécessite des cadres standardisés qui vont au-delà de la réglementation des chatbots en tant qu'outils conversationnels et prennent en compte les capacités plus larges de l'IA pour la génération de données.

Les algorithmes d’IA générative, tels que ceux basés sur des méthodologies telles que GPT (Generative Pretrained Transformer) et GAN (Generative Adversarial Networks), peuvent être formés sur des ensembles de données médicales existants pour créer des données synthétiques telles que du texte, des images et d’autres données structurées, offrant ainsi une alternative aux données collectées auprès des humains.

Les données synthétiques conservent les caractéristiques essentielles des données médicales d’origine tout en étant anonymisées et modifiées pour répondre à des besoins de recherche spécifiques.

Par exemple, des ensembles de données synthétiques sur le cancer  , les maladies cardiovasculaires  et la COVID-19  ont été créés à l’aide des informations sur les patients dans les bases de données du National Health Service pour la recherche et les applications en apprentissage automatique.

Des études suggèrent que les données synthétiques peuvent compléter efficacement les données du monde réel dans le contexte médical, permettant une recherche ouverte, efficace et équitable, ainsi que le développement de nouvelles technologies et pratiques basées sur l’IA.
 
IAREGULA

Cependant, malgré ce potentiel, les progrès vers un programme de recherche unifié ont été entravés par un manque de cohérence et d’accord sur les méthodes et les mesures utilisées pour générer et évaluer les données synthétiques.

 Un comité technique de l’Organisation internationale de normalisation travaille sur un document visant à examiner le développement de données synthétiques pour l’IA

 Pourtant, pour intégrer pleinement les technologies génératives, y compris les résultats synthétiques dans la recherche et la pratique médicales, nous avons besoin de normes et de certifications de données solides pour garantir qu’elles répondent aux exigences de qualité, de sécurité et d’éthique tout en tenant compte des complexités présentes et futures des patients et des maladies. 

L’élaboration d’un cadre de gouvernance normalisé spécifique aux résultats synthétiques en médecine introduira sans aucun doute des complexités sans précédent.

Ce cadre remettra en question la surveillance et la responsabilité humaines, car de nombreux processus par lesquels les modèles d’IA génèrent des données synthétiques (par exemple, la découverte de modèles, l’extrapolation de données et la génération de données) ne sont pas observables.

Contrairement aux méthodes traditionnelles impliquant l’observation, la mesure et la catégorisation des conditions de santé des participants à la recherche, plusieurs ensembles de données synthétiques peuvent être créés sans intervention humaine directe, ce qui complique leur comparabilité et leur généralisabilité aux patients.

Ce passage d’une approche centrée sur le patient à des pratiques de données compositionnelles soulèvera de nouvelles questions éthiques et épistémologiques sur la manière dont les données synthétiques représentent les réalités des soins de santé. 

Les principales considérations porteront notamment sur la manière dont les données synthétiques doivent être considérées et utilisées par rapport aux données du monde réel, sur la manière de généraliser les résultats de la recherche basés sur des données synthétiques aux patients, sur la manière d’évaluer la qualité des données synthétiques et sur la manière d’établir la responsabilité.
 
Les données synthétiques sont très prometteuses, mais de nombreuses incertitudes subsistent quant à la manière d’exploiter pleinement et de manière responsable leur potentiel.
 
Une collaboration urgente entre les communautés médicales, éthiques et de l’apprentissage automatique, ainsi que le public, est essentielle pour développer des cadres de gouvernance normalisés, des lignes directrices d’utilisation appropriée et des définitions consensuelles de la qualité, de la sécurité et de l’équité.

Le moment est venu d’agir.

gouvvee
 
Commentaire

Légiférer, organiser, lois, décrets d'application etc., c'est nécessaire pour l'IA, mais attention de ne pas construire une nouvelle usine à gaz, spécialité franco française.

Trop de normes tue la norme

Usine à gaz : concept difficile à comprendre

L'HUMAIN doit rester au centre ce ces réglementations, la cohabitation humain/IA, c'est la base de la gouvernance de l'IA, mais c'est l'humain qui est le décideur notamment en matière de santé .

Les 10 propositions du rapport du pôle santé de TERRA NOVA sont  claires, audibles et réalisables 

A LIRE

Rapport

IA et Santé : pourquoi l’action publique ne peut plus attendre

 

"L’Intelligence Artificielle dans la santé, on en parle déjà beaucoup et partout. Mais quelle politique publique soutient vraiment aujourd’hui le déploiement de cette révolution en marche ? Terra Nova plaide pour accélérer l’implication des pouvoirs publics et liste, avec dix recommandations opérationnelles, les instruments de politique publique qu’appellent aujourd’hui les usages de l’IA dans le soin et la prévention. Point de départ de l’analyse : les usages de l’IA s’accélèrent. Professionnels de santé et patients adhèrent aux promesses que concepteurs et développeurs s’attachent à parfaire, et la régulation européenne et nationale a progressé pour en maîtriser les risques éthiques. Cette accélération de la technologie et de ses usages déplace le champ du débat public : l’enjeu n’est plus de savoir comment encadrer les dilemmes éthico-politiques que l’IA engendre en santé, mais de bâtir, en se fondant sur la littérature scientifique, l’évaluation des usages existants, et le cadre régulateur de l’AI-Act européen, un cadre d’action et des instruments concrets de politique publique. Il y a même urgence si l’on veut sécuriser les enjeux de l’IA en termes de qualité des soins, d’équité en santé et de souveraineté numérique. Nous n’en sommes plus aux questions de principe mais à une problématique d’embrayage, de mise à l’échelle opérationnelle dans laquelle il est urgent que les pouvoirs publics prennent dès maintenant toute leur part avec les instruments qui sont les leurs."

Les 10 PROPOSITIONS

Proposition 1 :

Constituer un Conseil stratégique de l’IA en santé associant pouvoirs publics, représentants des patients, acteurs de santé et représentants des innovateurs en IA pour structurer la politique publique d’accompagnement de la diffusion de cette technologie sans brider les initiatives de terrain

Proposition 2 :

Établir un Observatoire de la diffusion de l’IA pour la prévention et l’accès aux soins permettant de réunir le matériau de suivi sur la diffusion des cas d’usage et ses effets dans une logique de responsabilité populationnelle en santé. Cet Observatoire intégrerait une forte dimension médico-économique à ses travaux pour dresser et actualiser le bilan des effets de la diffusion de l’IA au sein de notre système de santé et d’autonomie.

Proposition 3

Établir en Loi de finance de la Sécurité sociale (LFSS) pour 2025 un modèle médico-économique ternaire de diffusion de l’IA en santé (distinguant IA de pilotage des fonctions-supports, IA d’amélioration de l’organisation médicale et IA de prévention et de santé publique) et engager dès le 1er janvier 2025 les cinq premiers parcours territoriaux de santé avec IA dans une dizaine de territoires pilotes et sous garantie humaine médicale.

Proposition 4 :

Soutenir la structuration des écosystèmes de garantie humaine de l’IA par la valorisation du temps médical dédié à la construction des méthodologies de supervision et le développement de plateformes de conformité permettant de garder la traçabilité du contrôle humain et son audibilité par le régulateur dans le cadre de l’AI Act européen.

Proposition 5 :

Soutenir le développement et l’hébergement dans un cadre de souveraineté et de confiance de plateformes technologiques d’accès à ces systèmes d’IA en santé et en autonomie au plus près des réalités des professionnels, des patients et de leurs proches aidants. L’objet ne doit pas être ici de viser une démarche centralisée mais plutôt, par la voie d’un appel à projets national, de favoriser l’éclosion de consortiums traduisant cette logique de souveraineté numérique.


Proposition 6 :

Engager une impulsion nationale pour systématiser la sensibilisation à l’IA dans les formations initiales des acteurs de santé et d’autonomie et soutenir les démarches de gestion prévisionnelle des emplois et des compétences portant sur l’IA en santé. La sensibilisation à l’IA pourrait être intégrée systématiquement à toutes les formations initiales paramédicales, médicales et managériales en santé. L’éclosion de cursus de spécialités et de formations spécialisées multidisciplinaires devrait être encouragée. La formation continue à l’IA de l’ensemble des professionnels du système de santé et du maintien en autonomie devrait être fixée comme un objectif de politique publique à cinq ans. Un tour de table sur l’IA réunissant l’ensemble des acteurs de la formation initiale et continue sur la santé et l’autonomie pourrait être organisé sous l’égide du Conseil stratégique de l’IA en santé.


Proposition 7 :

Généraliser les démarches types collèges de garantie humaine en établissement de santé et en CPTS. L’engagement dans ces dynamiques de qualité et gestion des risques pour la diffusion de l’IA en santé serait à intégrer et soutenir dans le cadre des indicateurs qualité des établissements de santé et des professionnels de ville. Les premières démarches pilotes de prise en compte de cette logique de garantie humaine dans l’assurabilité des systèmes d’IA sont à encourager. 

Proposition 8 :

Initier d’ici 2026 deux premiers parcours de recours à l’IA combinant les interventions des professionnels paramédicaux et médicaux en dermatologie et dans le domaine du maintien en autonomie à domicile. Ces parcours gagneraient à s’appuyer sur un portail de confiance pour l’accès à ces outils en ville ou à domicile sous contrôle humain des professionnels de santé. 


Proposition 9 :

Soutenir l’innovation organisationnelle ouverte par la télémédecine et la télé radiologie de garantie humaine de l’IA qui permet de faciliter l’accès au diagnostic de spécialité pour le patient tout en mettant en place un protocole rigoureux et traçable de contrôle humain par les spécialistes. 

Proposition 10 :

Soutenir l’engagement des acteurs français dans la construction du cadre de normalisation européenne et internationale pour l’intelligence artificielle en santé et en autonomie.

 


IA HIPPO
 
 La position de la REVUE MEDICALE SUISSE , RMS 26 Février 2025

Pour une adoption réussie de l’IA générative

en médecine, il est impératif de :

Former et sensibiliser les 
professionnels aux outils d’IA ; être capable d’évaluer l’utilisation appropriée de l’IA est une nouvelle compétence clé pour les professionnels de la santé.

Valider et superviser les résultats de l’IA en les soumettant au regard de personnes
compétentes dans le domaine concerné.
 
Préserver la confidentialité des données patient en respectant le cadre légal en vigueur.

Encadrer l’utilisation de l’IA par des protocoles clairs pour éviter une dépendance excessive
 

Copyright : Dr Jean Pierre Laroche / 2025