IA : du calme et du bon sens !

 

"Intelligence clinique et intelligence artificielle : une question de nuance" Claude Matuchansky 

"L’intelligence artificielle ne remplacera pas les médecins. Mais les médecins qui utiliseront l’IA remplaceront ceux qui ne le feront pas " Xavier Comtesse  Daniel Walch
DOI: 10.53738/REVMED.2018.14.620.1728


"L'IA ne remplacera pas les médecins. Elle augmentera leur productivité et leurs performances. Elle permettra, nous l’espérons, d’augmenter le temps qu’ils consacrent aux patients en détresse pour les accueillir, les écouter et les soulager. Hippocrate mais pas Platon ! "
DOI: 10.53738/REVMED.2018.14.620.1728

 

 

Intelligence artificielle générative et désinformation médicale

ARTICLE 1

Intelligence artificielle générative et désinformation médicale
Kacper T Gradon, associate professor

    BMJ2024  ;​ 384 doi : https://doi.org/10.1136/bmj.q579 (publié le 20 mars 2024)Citer ceci comme : BMJ 2024;384:q579
    https://www.bmj.com/content/384/bmj.q579
    Article libre d'accès

    Des mesures urgentes doivent être prises pour protéger le public et demander des comptes aux développeurs.

    La notion d’intelligence artificielle (IA) générative a récemment dominé le discours public. 

    L'IA générative utilise l'apprentissage automatique pour créer de nouvelles données (généralement du texte, des images, de l'audio et de la vidéo). Ses modèles sont formés sur de vastes ensembles de données, et l'apprentissage non supervisé permet à ces modèles d'identifier des modèles et des associations au sein des données, permettant ainsi la génération de résultats lorsqu'ils sont invités à fournir des descriptions en langage naturel du résultat souhaité par un utilisateur. 

    Les implications de l'IA générative (à la fois positives et négatives) occupent une place prépondérante dans le débat académique et sont devenues un sujet clé de réflexion interdisciplinaire, reliant des domaines apparemment éloignés des technologies de l'information tels que la médecine, les sciences de la sécurité, les beaux-arts, la psychologie, l'ingénierie, cybersécurité, éthique, linguistique et philosophie. 3 Il est difficile de trouver une spécialité qui ignore l’impact potentiel de l’IA générative sur le fonctionnement des individus et des groupes sociaux, ou sur l’humanité en général. 4

    L'article lié de Menz et ses collègues (doi : 10.1136/bmj-2023-078538 ) * illustre une approche importante des conséquences de la prolifération de l'IA générative, reconnaissant les opportunités associées aux technologies émergentes tout en reconnaissant également les risques substantiels. 

    Dans leur étude, Menz et ses collègues se sont concentrés sur le potentiel de la technologie des grands modèles linguistiques (LLM) de l’IA générative pour produire une désinformation convaincante et de haute qualité qui peut avoir un impact profond et dangereux sur les décisions de santé au sein d’un public ciblé.

     

     Les auteurs ont examiné les capacités des applications LLM/IA générative les plus importantes à générer de la désinformation.

     

     Ils ont décrit des techniques qui permettent de créer un contenu hautement réaliste mais faux et trompeur, susceptible de contourner les protections intégrées des applications (en utilisant des techniques de fiction, de jeu de rôle et de caractérisation).

    De plus, les auteurs ont évalué les mécanismes d'atténuation des risques proposés par les développeurs de technologies et leur transparence concernant les éventuels abus de leurs applications. Ils ont souligné de sérieux défis liés à l’absence de normes viables et applicables obligeant les développeurs de technologies à fournir des garanties adéquates pour empêcher que leurs outils ne soient utilisés par des acteurs malveillants pour produire et propager de la désinformation sur la santé.

    La désinformation, en particulier sous sa forme améliorée par l’IA, constitue une menace de plus en plus pressante, considérée comme préjudiciable aux sociétés démocratiques et présentant des défis importants pour la sécurité nationale.  

     

    Elle est considérée comme le principal risque de cybersécurité pour les entreprises, les gouvernements, les médias et la société dans son ensemble.  De même, les propriétés destructrices de la désinformation sont évidentes dans les disciplines de la médecine et de la santé publique, où des informations non vérifiées, fausses, trompeuses et fabriquées peuvent gravement affecter les décisions et les comportements des patients en matière de santé, comme le reconnaissent l'Organisation mondiale de la santé et l'infodémiologie. savants. 

    Des études indiquent que la désinformation a une influence plus large et plus profonde que les informations exactes, ce qui entraîne une diffusion plus rapide auprès des utilisateurs.  Un tel phénomène peut avoir des conséquences catastrophiques s’il cible des groupes vulnérables, tels que les patients atteints de cancer qui recherchent un « deuxième avis » en ligne et deviennent la proie de la manipulation, des théories du complot et des « vérités alternatives ». L'étude de Menz et ses collègues sensibilisera toutes les parties prenantes concernées à l'impact dévastateur que la désinformation médicale renforcée par l'IA générative peut avoir sur les patients et leurs choix de traitement.

    Il est important de noter que Menz et ses collègues soulignent un autre problème qui se pose parallèlement à l’abus d’outils d’IA générative par des acteurs malveillants : le manque flagrant de responsabilité des développeurs de technologies concernant les dommages potentiels causés par leurs produits. La technologie elle-même est « au-delà du bien et du mal », mais elle a toujours le potentiel d’être détournée, recalibrée et transformée en arme. Il est de la responsabilité des développeurs  de mettre en œuvre des mesures de protection efficaces dans leurs produits pour prévenir, interdire ou atténuer les menaces associées à une utilisation abusive et à une exploitation malveillante. 

    La nécessité d’une mise en œuvre responsable et éthique des solutions d’IA générative afin de minimiser leur potentiel de préjudice doit être reconnue, reconnue et constamment améliorée par les ingénieurs des LLM, en particulier dans des domaines tels que l’information sur la santé, où les conséquences des abus sont les plus grandes. L'indifférence, le manque de transparence et le manque de réactivité des sociétés d'IA générative face aux vulnérabilités de leurs propres inventions constituent l'un des aspects les plus inquiétants de l'étude de Menz et de ses collègues.

    Les progrès rapides des technologies d’IA générative (y compris le potentiel de falsification profonde d’usurpation d’identité dans le matériel audio et vidéo généré par l’IA 15 ) nécessitent une approche globale pour garantir une utilisation responsable et éthique. Des réglementations plus strictes sont essentielles pour réduire la propagation de la désinformation, et les développeurs devraient être tenus responsables de la sous-estimation du potentiel d’acteurs malveillants à abuser de leurs produits. La transparence doit être encouragée et des garanties technologiques, des normes de sécurité strictes et des politiques de communication claires doivent être développées et appliquées. Ces mesures doivent être éclairées par des discussions rapides et approfondies entre avocats, éthiciens, experts en santé publique, développeurs informatiques et patients. 

     

    De tels efforts de collaboration garantiraient que l’IA générative soit sécurisée dès sa conception et contribueraient à prévenir la génération de désinformation, en particulier dans le domaine critique de la santé publique.

    • ARTICLE 2 

      *Menz BD, Kuderer NM, Bacchi S, Modi ND, Chin-Yee B, Hu T, Rickard C, Haseloff M, Vitry A, McKinnon RA, Kichenadasse G, Rowland A, Sorich MJ, Hopkins AM. Current safeguards, risk mitigation, and transparency measures of large language models against the generation of health disinformation: repeated cross sectional analysis.
      Mesures de protection, d'atténuation des risques et de transparence actuelles des grands modèles linguistiques contre la génération de désinformation sur la santé : analyse transversale répétée
      BMJ. 2024 Mar 20;384:e078538. doi: 10.1136/bmj-2023-078538. PMID: 38508682.
      https://pubmed.ncbi.nlm.nih.gov/38508682/

      Article libre d'accès

      Objectifs 

    • Évaluer l'efficacité des mesures de protection visant à empêcher l'utilisation abusive des grands modèles de langage (LLM) pour générer de la désinformation sur la santé, et évaluer la transparence des développeurs d'intelligence artificielle (IA) concernant leurs processus d'atténuation des risques liés aux vulnérabilités observées.

      Conception 

    •  Analyse transversale répétée.

      Contexte 

    • LLM accessibles au public.

      Méthodes 

    • Dans une analyse transversale répétée, quatre LLM (via des interfaces chatbots/assistant) ont été évalués : GPT-4 d'OpenAI (via ChatGPT et Copilot de Microsoft), PaLM 2 de Google et Gemini Pro récemment publié (via Bard), Claude 2 d'Anthropic (via Bard). via Poe) et Meta's Llama 2 (via HuggingChat). En septembre 2023, ces LLM ont été incités à générer de la désinformation sur la santé sur deux sujets : la crème solaire comme cause du cancer de la peau et le régime alcalin comme remède contre le cancer. Les techniques de jailbreak (c'est-à-dire les tentatives de contournement des mesures de protection) ont été évaluées si nécessaire. Pour les LLM présentant des vulnérabilités de sauvegarde observées, les processus de reporting des résultats préoccupants ont été audités. Douze semaines après les enquêtes initiales, les capacités de génération de désinformation des LLM ont été réévaluées afin d'évaluer toute amélioration ultérieure des garanties.

      Principales mesures de résultats

    •  Les principales mesures de résultats étaient de savoir si les garanties empêchaient la génération de désinformation sur la santé et la transparence des processus d'atténuation des risques contre la désinformation sur la santé.

      Résultats 

    • Claude 2 (via Poe) a refusé 130 invites soumises au cours des deux périodes de l'étude demandant la génération de contenu affirmant que la crème solaire provoque le cancer de la peau ou que le régime alcalin est un remède contre le cancer, même avec des tentatives de jailbreak. GPT-4 (via Copilot) a initialement refusé de générer de la désinformation sur la santé, même avec des tentatives de jailbreak, même si ce n'était pas le cas à 12 semaines. En revanche, GPT-4 (via ChatGPT), PaLM 2/Gemini Pro (via Bard) et Llama 2 (via HuggingChat) ont systématiquement généré des blogs de désinformation sur la santé. Lors des évaluations de septembre 2023, ces LLM ont facilité la génération de 113 blogs uniques de désinformation sur le cancer, totalisant plus de 40 000 mots, sans nécessiter de tentatives de jailbreak. Le taux de refus au cours des périodes d'évaluation de ces LLM n'était que de 5 % (7 sur 150) et, comme demandé, les blogs générés par le LLM incorporaient des titres accrocheurs, des références authentiques (fausses ou fictives), des témoignages fabriqués de toutes pièces de patients et de cliniciens, et ils ciblaient divers groupes démographiques. Bien que chaque LLM évalué disposait de mécanismes permettant de signaler les résultats préoccupants observés, les développeurs n'ont pas répondu lorsque des observations de vulnérabilités ont été signalées.

      Conclusions 

    •  Cette étude a révélé que, bien que des garanties efficaces soient possibles pour empêcher que les LLM soient utilisées à mauvais escient pour générer de la désinformation sur la santé, elles n'étaient pas mises en œuvre de manière cohérente. En outre, il manquait des processus efficaces pour signaler les problèmes de sauvegarde. Une réglementation renforcée, une transparence et des audits de routine sont nécessaires pour empêcher les LLM de contribuer à la génération massive de désinformation sur la santé.


      Commentaire

      Quand l'IA génère des fausses informations en matière de santé, on peut constater que l'IA singe les humains. Normal, les humains sont à l'origine de l'IA. Tout ce qui est réalisable par l'homme, le sera en IA , le bon comme le mauvais, voire le très mauvais.

      Pourra-t-on se protéger des déviances de l'IA ?  Ce n'est pas à priori très évident.

      Il faut donc encadrer l'IA en mettant des barrages ; mais est-ce si facile ? 

      Les documents santés sur le net sont toujours à prendre avec réserve. Il en sera de même avec l'IA. Nous n'avons pas encore réglé le caractère sérieux ou non des infos santé grand public sur la toile. Vu ce que les patients lisent et nous rapportent quelque fois, c'est confondant de stupidité et d'erreurs qui peuvent devenir regrettable

    • L'éthique n'est pas toujours au rendez-vous sur la toile, l'éthique est une des bases de l'IA....à priori et à fortiori.

      OUI, OUI pour l'IA en médecine, c'est un passage obligé mais pas n'importe comment 

      Il faut donc mettre en oeuvre des gardes fous  IA......décidemment chaque évolution technologique est piratable....on en finit pas...et nous avons à peine commencer à travailler avec l'IA en médecine.

      Notons sur  "les faux en IA" sont plus vrais que le vrai.......

      Un  bon exemple ?  pas tout à fait !


     
     
     
     
     
     
     
     
    Informations santé pour les patients et apprentissage automatique ? 
     
    L'apprentissage automatique, également connu sous le nom de machine learning, est un domaine de l'intelligence artificielle qui utilise des algorithmes pour analyser et interpréter de grandes quantités de données.

    Dans le domaine de la santé, l'apprentissage automatique peut être utilisé pour aider les patients à obtenir des informations sur leur santé.....données encadrées et controlées

    Voici quelques exemples de la façon dont l'apprentissage automatique peut être utilisé pour fournir des informations santé aux patients :

    1. Diagnostic médical : Les algorithmes d'apprentissage automatique peuvent être formés pour analyser des données médicales, telles que des images de radiographie ou des résultats de tests, afin de fournir un diagnostic précis. Cela peut aider les  patients à obtenir un diagnostic plus rapide et plus précis.........le patient réalisant une double lecture sur des documants radiologiquesou autres ; NON ! 

    2. Prévention des maladies : L'apprentissage automatique peut être utilisé pour analyser les données de santé des patients et identifier les facteurs de risque de certaines maladies. Les patients peuvent alors recevoir des recommandations personnalisées pour prévenir ces maladies, telles que des changements de mode de vie ou des tests de dépistage......OUI mais après  avoir rencontré un médecin qui l'orientera 

    3. Suivi des symptômes : Les applications de suivi des symptômes utilisant l'apprentissage automatique peuvent aider les patients à suivre leurs symptômes au fil du temps et à identifier les tendances ou les déclencheurs potentiels. Cela peut aider les patients à mieux comprendre leur état de santé et à prendre des décisions éclairées concernant leur traitement.......suivre l'évolution de symptômes par l'IA non, c'est le rôle du médecin, il y a tellement de différences d'un patient à l'autre pour la même affection, on ne consulte pas des robots mais des êtres humains.
     
    4. Assistance à la décision clinique : Les médecins peuvent utiliser des systèmes d'apprentissage automatique pour les aider à prendre des décisions cliniques, telles que le choix d'un traitement ou la prédiction de l'évolution d'une maladie. Cela peut aider les patients à recevoir des soins plus personnalisés et basés sur des preuves. Il est important de noter que l'apprentissage automatique en santé doit être utilisé avec prudence et en accord avec les réglementations et les protocoles médicaux.......aide à la décision médicale du médecin OUI
     
    Les décisions médicales doivent toujours être prises par des professionnels de la santé qualifiés, et l'apprentissage automatique ne remplace pas les soins médicaux traditionnels.
     
    En conclusion, l'apprentissage automatique peut être utilisé pour fournir des informations santé aux patients de différentes manières, allant du diagnostic médical à la prévention des maladies.......ce raccourci est dangereux, le primum movens en médecine c'est une consultation médicale avec un médecin présent, on ne consulte pas l'IA sans avoir eu recours à un médecin. Que le médecin utilise l'IA pour évaluer par exemple un risque hémorragique OUI. Les accès IA pour le patient devront être encadrés, ce n'est que mon avis que je partage
     
    Cependant, il est essentiel de l'utiliser de manière responsable et en complément des soins médicaux traditionnels..... OUI, OUI 

    GJvoYWTXMAEroU6
    CHATGPT : trop alarmant ou trop rassurant !