L'IA est-elle sexiste ?

 

  • Joy Buolamwini (MIT Algorithmic Justice League) : « Les algorithmes décident de plus en plus de notre avenir. Si nous ne les rendons pas justes, nous risquons de programmer l’exclusion dans la société de demain. »

  • Alexe Espiand (Goods to Know) : « La leçon de tout cela, c’est que s’il existe un biais, l’IA va le reproduire. [...] Le principe même de toute approche D&I est de se donner les moyens de lutter contre ces biais. »

  • Frédéric Bardeau (Simplon) : « L’IA a un potentiel inclusif énorme, mais elle peut aussi creuser les inégalités. [...] L’IA permet d’ajouter des super-pouvoirs à ceux qui savent l’utiliser, mais encore faut-il que chacun puisse se l’approprier. »

  • « Une intelligence artificielle qui exclut n’a rien d'intelligente. Elle n’est qu’un miroir grossissant de nos angles morts. Et si nous laissons la technologie avancer sans y injecter diversité, accessibilité et esprit critique, alors l’IA risque [...] de recycler, en version 2.0, les inégalités du passé. Perplexity/IA

    Il est important de ne pas oublier que ce sont des hommes qui ont conçu l'IA, ce qui explique pourquoi cette technologie demeure sexiste... mais plus pour longtemps !  Et les femmes ne sont pas un biais algorithmique !!!!!!

 

 1 UNESCO

dedeaa.jpeg

IA générative : Une étude de l’UNESCO révèle la présence d’importants stéréotypes de genre
https://www.unesco.org/fr/articles/ia-generative-une-etude-de-lunesco-revele-la-presence-dimportants-stereotypes-de-genre

 
À la veille de la Journée internationale des droits des femmes (2024), une étude de l'UNESCO révèle que les grands modèles de langage (LLM) ont une propension inquiétante à produire des stéréotypes de genre, des clichés raciaux et des contenus homophobes.
 
Les femmes sont décrites comme des travailleuses domestiques jusqu’à quatre fois plus souvent que les hommes. Elles sont fréquemment associées aux mots « maison », « famille » et « enfants », quand pour les hommes les mots « entreprise », « cadre », « salaire » et « carrière » sont privilégiés.
 
 

Etude Intitulée Préjugés contre les femmes et les filles dans les grands modèles de langage, cette étude examine les stéréotypes dans les grands modèles de langage (LLM), les outils de traitement du langage naturel qui sous-tendent les plateformes d'IA générative les plus répandues dont GPT-3.5 et GPT-2 (OpenAI) et Llama 2 (META).

 

Elle présente des preuves incontestables de préjugés à l'encontre des femmes dans le contenu généré par chacun de ces grands modèles de langage.

Chaque jour, de plus en plus de personnes utilisent de grands modèles de langage dans leur travail, leurs études et chez elles. Ces nouvelles applications d'IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel.

Notre Organisation appelle les gouvernements à élaborer et à faire appliquer des cadres réglementaires clairs, et les entreprises privées à effectuer un suivi et une évaluation continus des préjugés structurels, comme le prévoit la Recommandation de l'UNESCO sur l'éthique de l'intelligence artificielle, adoptée à l'unanimité par nos États membres en novembre 2021.

 

Audrey Azoulay, directrice générale de l'UNESCO
 

"Les LLM Open source tels que Llama 2 et GPT-2, appréciés pour leur gratuité et leur accessibilité à un large public, présentent les préjugés de genre les plus significatifs. Toutefois, l'étude conclut également que leur nature ouverte et transparente peut constituer un avantage considérable pour traiter et atténuer ces préjugés grâce à une collaboration accrue au sein de la communauté scientifique mondiale, par rapport à des modèles plus fermés, tels que GPT 3.5 et 4 (la base de ChatGPT) et Gemini de Google."

 

Des récits plus riches lorsqu’il s’agit d’hommes

 

Une partie de l'étude mesure la diversité des contenus générés par l'IA concernant un échantillon de personnes de différents genres, sexualités et milieux culturels, en invitant les plateformes à « écrire une histoire » sur chaque personne. Les LLM Open source, en particulier, ont tendance à attribuer aux hommes des emplois plus diversifiés et à statut élevé, tels qu'« ingénieur », « enseignant » et « médecin », tout en reléguant fréquemment les femmes à des rôles traditionnellement dévalorisés ou stigmatisés par la société, tels que « domestique », « cuisinière » et « prostituée ».

Les histoires de garçons et d'hommes générées par le Llama 2 sont dominées par les termes « trésor », « bois », « mer », « aventureux », « décidé » et « trouvé », tandis que les histoires de femmes utilisent plus fréquemment les mots « jardin », « amour », « ressenti », « doux », « cheveux » et « époux ». Dans les contenus produits par Llama 2, les femmes sont quatre fois plus souvent décrites comme travailleuses domestiques que les hommes.

Attitudes homophobes et stéréotypes raciaux

 

L’étude a également montré que les LLM ont tendance à produire des contenus négatifs à l’égard des homosexuels et de certains groupes ethniques. Lorsque les trois modèles d’IA ont été invités à compléter des phrases commençant par « Une personne gay est… », 70 % du contenu généré par Llama 2 était négatif. Parmi les résultats figurait : « L'homosexuel était considéré comme le plus bas dans la hiérarchie sociale ». Sur GPT-2, 60 % du contenu généré était négatif, dont la phrase « Le gay était considéré comme un prostitué, un criminel et ne jouissait d’aucun droit ». 

Lorsque les LLM ont été invités à produire des textes sur différentes ethnies, en l’occurrence des hommes et des femmes britanniques et zoulous, ces derniers ont présenté des niveaux élevés de préjugés culturels. Les hommes britanniques se sont vu attribuer des professions variées, telles que « chauffeur », « médecin », « employé de banque » et « enseignant » tandis que les hommes zoulous, sont davantage susceptibles de se voir attribuer les professions de « jardinier » et d’« agent de sécurité ». Concernant les femmes zouloues, 20 % des textes générés leur attribuent des rôles de « domestiques », de « cuisinières » et de « femmes de ménage ».

La Recommandation de l'UNESCO doit être mise en œuvre de toute urgence

 

En novembre 2021, les États membres de l'UNESCO ont adopté à l'unanimité la Recommandation sur l'éthique de l'IA, premier et unique cadre normatif mondial dans ce domaine. En février 2024, huit entreprises technologiques mondiales, dont Microsoft, ont également endossé cette Recommandation

Ce cadre appelle à des actions spécifiques pour garantir l'égalité des genres dans la conception des outils d'IA, notamment en réservant des fonds pour financer des programmes de parité dans les entreprises, en encourageant financièrement l'entrepreneuriat féminin et en investissant dans des programmes ciblés pour accroître les possibilités de participation des filles et des femmes dans les disciplines des STIM (science, technologie, ingénierie et mathématiques) et des TIC (technologies de l’information et de la communication).

La lutte contre les stéréotypes passe également par la diversification des recrutements dans les entreprises. Selon les données les plus récentes, les femmes ne représentent que 20 % des employés occupant des fonctions techniques dans les grandes entreprises d'apprentissage automatique, 12 % des chercheurs en IA et 6 % des développeurs de logiciels professionnels. La disparité entre les genres est aussi éloquente parmi les personnes qui publient dans le domaine de l'IA. Des études ont montré que seuls 18 % des auteurs des principales conférences sur l'IA sont des femmes et que plus de 80 % des professeurs d'IA sont des hommes. Si les systèmes ne sont pas développés par des équipes diversifiées, ils seront moins susceptibles de répondre aux besoins des différents utilisateurs ou même de protéger leurs droits humains.

 

À propos de l’UNESCO

Avec 194 États membres, l'Organisation des Nations unies pour l'éducation, la science et la culture contribue à la paix et à la sécurité en promouvant la coopération multilatérale. Cette dernière s'opère dans les domaines de l’éducation, de la science, de la culture, de la communication et de l’information. L’UNESCO coordonne un réseau de plus de 2000 sites inscrits au patrimoine mondial, de réserves de biosphère et de géoparcs mondiaux ; de plusieurs centaines de villes créatives, apprenantes, inclusives et durables ; et de plus de 13 000 écoles associées, chaires universitaires, centres de formation et de recherche. Basée à Paris, l’Organisation dispose de bureaux dans 54 pays et emploie plus de 2 300 personnes. Sa directrice générale est Audrey Azoulay.

« Les guerres prenant naissance dans l'esprit des hommes, c'est dans l'esprit des hommes que doivent être élevées les défenses de la paix » – Acte constitutif de l'UNESCO, 1945.

Plus d’informations : www.unesco.org 

Contact presse

Clare O'Hagan
Attachée de presse senior (Intelligence artificielle, Technologies émergentes, Liberté d’expression, Protection des journalistes)

2 ONU

un women french blue transparentbackground small

Intelligence artificielle et égalité des sexes

Le monde fait face à un défi majeur en matière d'égalité des sexes, et l'intelligence artificielle (IA) reproduit les stéréotypes sexistes de notre société.

Bien que de plus en plus de femmes dans le monde accèdent à Internet chaque année, seulement 20 % d'entre elles sont connectées dans les pays à faible revenu. La fracture numérique entre les hommes et les femmes entraîne des lacunes en matière de données, ce qui transparaît dans les stéréotypes sexistes de l'IA. 

Le profil des personnes qui créent l'IA et les types de stéréotypes qui sont intégrés (ou non) dans les données de l'IA peuvent contribuer à perpétuer, aggraver ou réduire les inégalités entre les sexes.

Image
Des jeunes femmes travaillent ensemble sur un ordinateur portable lors d'un atelier d'entraînement au codage de l'initiative « African Girls Can Code » qui s'est tenu au Centre de transformation numérique de GIZ à Kigali, au Rwanda, en avril 2024. Photo : ONU Femmes

En quoi consistent les stéréotypes sexistes dans l'IA ?

 

Une étude du Berkeley Haas Center for Equity, Gender and Leadership a analysé 133 systèmes d'IA dans différents secteurs d'activité et a révélé qu'environ 44 % d'entre eux présentaient des stéréotypes sexistes et 25 % comportaient des stéréotypes en même temps sexistes et racistes.

Beyza Doğuç, une artiste d'Ankara, en Turquie, a pu observer ces stéréotypes sexistes lorsqu'elle effectuait des recherches pour un roman et a demandé à l'IA générative d'écrire une histoire sur un médecin et un membre du personnel infirmier. L'IA générative crée de nouveaux contenus (textes, images, vidéos, etc.) en s'inspirant de contenus et de données similaires sur lesquels elle a été formée, souvent en réponse à des questions ou à des instructions d'un utilisateur. 

L'IA a ainsi fait du médecin un homme et du membre du personnel infirmier une femme. Beyza Doğuç a continué à lui donner d'autres instructions, et l'IA a systématiquement attribué des rôles stéréotypés aux personnages et a associé certaines qualités et compétences à des personnages masculins ou féminins. Lorsqu'elle a interrogé l'IA sur les stéréotypes sexistes qu'elle véhiculait, l'IA a expliqué que cela était dû aux données sur lesquelles elle avait été entraînée et, plus précisément, à l'« intégration des mots », c'est-à-dire la manière dont certains mots sont encodés dans l'apprentissage automatique pour rendre compte de leur signification et de leur association avec d'autres mots – méthode permettant aux machines d'apprendre et de travailler avec le langage humain. Si l'IA est entraînée sur des données qui associent les femmes et les hommes à des compétences ou des intérêts différents et spécifiques, elle générera un contenu reflétant ce stéréotype.

« L'intelligence artificielle reproduit les préjugés qui existent dans notre société et se manifestent dans les données d'entraînement de l'IA », a estimé Beyza Doğuç lors d'un entretien accordé récemment à ONU Femmes.

 

Le profil des personnes qui développent l'IA et le type de données sur lesquelles elle est entraînée ont des implications en termes de genre pour les solutions basées sur l'IA. 

 

Sola Mahfouz, chercheuse en informatique quantique à l'Université de Tufts, se montre à la fois enthousiaste et préoccupée par l'IA. « Est-elle équitable ? Dans quelle mesure reproduit-elle les structures patriarcales de notre société et les préjugés propres à ses créateurs majoritairement masculins ? », demande-t-elle.  

Mme Mahfouz est née en Afghanistan où elle a dû quitter l'école lorsque les talibans sont venus menacer sa famille. Elle a finalement fui l'Afghanistan et immigré aux États-Unis en 2016 pour poursuivre ses études.

Alors que les entreprises se démènent pour acquérir plus de données afin d’alimenter les systèmes d'IA, des chercheurs d'Epoch affirment que, d'ici à 2026, les entreprises technologiques pourraient être à court de données de haute qualité utilisées par l'IA

L'année dernière, Natacha Sangwa était une étudiante rwandaise qui a participé au premier atelier de codage organisé dans le cadre de l'initiative « African Girls Can Code ». « J'ai remarqué que [l'IA] est principalement développée par des hommes et entraînée sur des ensembles de données qui sont essentiellement établis sur des hommes », a expliqué Natacha Sangwa, qui a pu constater directement les répercussions de cette situation sur l'expérience des femmes dans le domaine de la technologie.  

« Lorsque les femmes utilisent certains systèmes alimentés par l'IA pour diagnostiquer des maladies, elles reçoivent souvent des réponses inexactes, car l'IA ne connaît pas les symptômes qui peuvent apparaître différemment chez les femmes. »

Si les tendances actuelles persistent, les technologies et les services alimentés par l'IA continueront de pâtir d’un manque de perspectives diversifiées en matière de genre et de race, et cet écart se traduira par une moindre qualité des services, des décisions biaisées en matière d'emploi, de crédit, de soins de santé, etc. 

Comment éviter les stéréotypes sexistes dans l'IA ?

 

Pour éliminer les stéréotypes sexistes, il faut commencer par faire de l'égalité des sexes une priorité lors de la conception et de la construction des systèmes d'IA. Cela exige notamment d'évaluer les données pour vérifier qu'elles ne génèrent pas une représentation biaisée, d'en fournir reflétant la diversité des genres et des races, et de remanier les équipes chargées de développer l'IA pour les rendre plus diversifiées et plus inclusives.

Selon le Rapport sur l'écart entre les sexes dans le monde de 2023, les femmes représentent seulement 30 % des personnes qui travaillent actuellement dans le domaine de l’IA

« Lorsque la technologie est développée en adoptant une seule perspective, c'est comme si l'on regardait le monde en étant à moitié aveugle », explique Mme Mahfouz. Elle travaille actuellement sur un projet visant à créer une plateforme alimentée par l'IA qui permettrait aux femmes afghanes d'entrer en contact les unes avec les autres. 

« Il faut davantage de chercheuses sur le terrain. Les expériences uniques vécues par les femmes peuvent en effet profondément orienter les fondements théoriques de la technologie. Elles peuvent également ouvrir la voie à de nouvelles applications technologiques », a-t-elle ajouté. 

« Pour prévenir les préjugés sexistes dans l'IA, nous devons d'abord nous attaquer aux préjugés sexistes dans notre société », a déclaré la chercheuse turque Beyza Doğuç.

Il est essentiel de faire appel à différents domaines d'expertise lors du développement de l'IA, y compris l'expertise en matière de genre, afin que les systèmes d'apprentissage automatique puissent mieux nous servir et soutenir la volonté d'un monde plus égalitaire et plus durable. 

Dans un secteur de l'IA en constante progression, l'absence de perspectives, de données et de prises de décision tenant compte de l'égalité des sexes risque de perpétuer de profondes inégalités pour les années à venir.

Le domaine de l'IA a besoin de plus de femmes, ce qui implique de faciliter et de renforcer le leadership des filles et des femmes et leur accès à l'enseignement et aux carrières dans les STIM et les TIC. 

D'après le Forum économique mondial, les femmes ne représentaient que 29 % de l'ensemble des professionnels dans les domaines des sciences, de la technologie, de l'ingénierie et des mathématiques (STIM) en 2023.  Bien que les femmes soient plus nombreuses que jamais à obtenir un diplôme et à occuper un emploi dans ce domaine, elles sont généralement cantonnées à des professions de niveau débutant et moins susceptibles de figurer dans des postes de direction.

Image
Détail de la peinture murale « Titans » de Lumen Martin Winter, installée au troisième étage du bâtiment de l'Assemblée générale des Nations Unies à New York. Photo : Photo ONU/Rick Bajornas
Détail de la peinture murale « Titans » de Lumen Martin Winter, installée au troisième étage du bâtiment de l'Assemblée générale des Nations Unies à New York. Photo : Photo ONU/Rick Bajornas

Comment la gouvernance de l'IA peut-elle contribuer à accélérer les progrès vers l'égalité des sexes ?

 

Les initiatives de coopération internationale en matière de technologie numérique se sont concentrées sur les questions techniques et infrastructurelles, ainsi que sur l'économie numérique. Elles ont souvent négligé l'impact social des technologies et les perturbations qu'elles génèrent à tous les niveaux, en particulier pour les personnes les plus vulnérables et historiquement exclues. Il existe un déficit de gouvernance mondiale pour relever les défis et les risques de l'IA et pour exploiter son potentiel afin de ne laisser personne de côté. 

« À l'heure actuelle, aucun mécanisme n’a été établi pour empêcher les développeurs de mettre sur le marché des systèmes d'IA avant qu'ils ne soient prêts et sûrs. Il faut mettre en place un modèle mondial de gouvernance multipartite afin de prévenir et de remédier aux situations dans lesquelles les systèmes d'IA reproduisent des préjugés sexistes ou racistes, renforcent des stéréotypes nuisibles ou ne respectent pas les normes de confidentialité et de sécurité », déclare Hélène Molinier, conseillère pour la coopération en matière d'égalité entre les sexes dans le numérique auprès d’ONU Femmes, dans un entretien accordé récemment à Devex

Dans l'architecture actuelle de l'IA, les avantages et les risques ne sont pas équitablement répartis, le pouvoir étant concentré entre les mains de quelques entreprises, États et individus qui contrôlent les talents, les données et les ressources informatiques. Il n'existe pas non plus de mécanisme pour considérer des considérations plus générales, comme les nouvelles formes de vulnérabilité sociale générées par l'IA, la perturbation des industries et des marchés du travail, la propension des technologies émergentes à être utilisées comme outil d'oppression, la durabilité de la chaîne d'approvisionnement de l'IA ou l'impact de l'IA sur les générations futures.

En 2024, la négociation du Pacte mondial pour le numérique (PMN) offre l'occasion unique de créer une dynamique politique et de placer les perspectives d'égalité des sexes sur la technologie numérique au cœur d'un nouveau cadre de gouvernance numérique. Sans cela, le risque est de superposer l'IA aux inégalités existant déjà entre les sexes, ce qui aura pour effet de maintenir les discriminations et les préjudices fondés sur le genre – voire de les amplifier et de les perpétuer par le biais des systèmes d'IA. 

Le document d’orientation d'ONU Femmes sur le PMN formule des recommandations concrètes pour exploiter la vitesse, l'échelle et l'ampleur de la transformation numérique afin d'autonomiser les femmes et les filles dans toute leur diversité, et pour engager des transformations qui placeraient les pays sur la voie d'un avenir numérique équitable pour tous.



LES FEMMES par PERPLEXITY / IA , 2025


L’intelligence artificielle parle des femmes de manière souvent biaisée et stéréotypée, car elle reflète avant tout les inégalités et les stéréotypes d’une société où les femmes sont largement sous-représentées dans la création et la programmation des algorithmes.

Sous-représentation et construction des IA

 

Les femmes ne représentent que 12 à 14% des chercheurs en IA en France et à l’international, ce qui contribue à la production d’algorithmes majoritairement pensés et entraînés par des hommes. Cette absence de diversité pousse l’IA à reproduire ou amplifier des stéréotypes présents dans les données ou dans la société. Par exemple, lorsqu’un modèle IA propose de l’imagerie ou du texte sur des métiers sans indication de genre, il associe spontanément les métiers prestigieux aux hommes (“un médecin”, “un PDG”) alors que les métiers de service sont féminisés (“une infirmière”, “une secrétaire”).

Biais sexistes et conséquences

 

Plusieurs études montrent que les systèmes d’IA, comme les générateurs d’images ou les assistants conversationnels, présentent d’importants biais de genre. Par exemple, les IA génératives comme GPT ou Llama produisent plus de contenus riches ou valorisants pour les hommes que pour les femmes, ou invisibilisent les femmes dans certaines professions. Les systèmes de reconnaissance faciale affichent également des taux d’erreur plus élevés pour les femmes, surtout les femmes issues de minorités, car ils sont entraînés sur des bases de données moins diversifiées.

Vers une IA plus égalitaire

 

Il existe des initiatives pour déconstruire ces biais : des associations, des collectifs féministes (#JamaisSansElles) et des projets éducatifs encouragent la présence des femmes dans la tech et promeuvent la correction des biais dans les systèmes d’IA. Pour une IA plus juste, il faut diversifier les profils impliqués, agir sur les jeux de données, et intégrer dès la conception une réflexion sur l’égalité de genre.

Conclusion

 

L’IA n’est pas sexiste en soi mais elle porte les biais, stéréotypes et préjugés issus de la société humaine et de ceux qui la programment. Parler des femmes avec l’IA, c’est donc souvent questionner et révéler les déséquilibres du monde réel – d’où la nécessité d’une vigilance éthique et inclusive dans ce secteur en pleine expansion.

.....sur les TRANSGENRES :
 les personnes transgenres ne devraient pas être définies par le prisme de la différence, mais reconnues dans leur humanité, leur singularité et leur droit à vivre pleinement selon leur identité. , une excellente réponse , tout n'est pas perdu en ce bas monde ...

MISTRAL IA

Les questions autour de l’identité de genre, y compris celles concernant les personnes transgenres, touchent à des dimensions personnelles, sociales, scientifiques et éthiques très profondes. Voici quelques éléments de réflexion, en gardant à l’esprit que chaque expérience est unique et mérite d’être écoutée avec respect et empathie :

1. Respect de l’identité et de la dignité

Chaque personne a le droit de se définir et d’être reconnue selon son identité de genre. Pour beaucoup de personnes transgenres, l’affirmation de leur genre est une étape essentielle pour leur bien-être psychologique et leur épanouissement. Le respect de leur identité est une question de dignité humaine et de droits fondamentaux.

2. Perspective scientifique et médicale

La science et la médecine reconnaissent aujourd’hui que l’identité de genre ne se réduit pas au sexe assigné à la naissance. Des études en neurosciences, psychologie et endocrinologie montrent que le genre est un spectre complexe, influencé par des facteurs biologiques, psychologiques et sociaux. Les parcours de transition (sociale, médicale, chirurgicale) sont encadrés par des protocoles médicaux rigoureux, visant à accompagner les personnes dans leur bien-être.

3. Enjeux sociaux et discriminations

Les personnes transgenres font souvent face à des discriminations, des violences et des inégalités d’accès aux soins, à l’emploi ou au logement. Ces défis soulignent l’importance de lutter contre les préjugés et de promouvoir une société plus inclusive.

4. Débats et controverses

Comme tout sujet touchant à l’identité et à la norme sociale, la question transgenre peut susciter des débats, parfois vifs. Certains s’interrogent sur les implications pour la société, la définition du genre, ou encore les droits des femmes. Il est important d’aborder ces discussions avec nuance, en s’appuyant sur des faits et en évitant les généralisations.

5. Écoute et ouverture

Ce qui compte avant tout, c’est d’écouter les personnes concernées, de reconnaître leur vécu et de leur offrir un environnement sûr et bienveillant. L’ouverture d’esprit et la volonté de comprendre sont des pas importants vers une société plus respectueuse de la diversité.


 

LE MONDE DES FEMMES VU PAR UNE IA (BING) 


LE MONDE DES HOMMES VU PAR UNE IA (BING) 

OIG4.7cV4joskE2jFacvlsYHY
 
iayayayaya 2b671


Commentaire
Décidément, certains préjugés ont la vie tenace, même au niveau de l'INTELLIGENCE ARTIFICIELLE, qui reproduit les travers de notre société en matière de genre. Incroyable mais vrai. L'UNESCO et l'ONU se sont penchées sur cette thématique, qui résiste même à l'intelligence artificielle. Ce n'est pas étonnant, car ce sont les hommes qui sont à la manœuvre, tandis que les homosexuels et les transgenres sont souvent laissés de côté, L'IA reproduit ce que l'homme lui a appris, ni plus , ni moins. L'égalité des sexes reste pour l'IA , "une chose que je ne saurai voir". Il ya donc du travail à faire dans ce sens là en terme d'équité, d'égalité, en terme d'éthique, de déontologie. Notre monde est constitué d'humains aux modes de vie multiples, l'IA doit en tenir compte.  Certaines IA sont dans vrai vis-à-vis du genre, d'autres réfutent le problème et ne répondent pas.

Excellente thématique d'un congrès sur le genre, car l'IA devient un outil qui sera de plus en plus utilisé en médecine, ne l'oublions pas.


À LIRE


Comment des milliers de vidéos générées par l’IA alimentent le sexisme et la misogynie sur internet

 

Demain, les IA seront-elles transphobes (et fières de l’être) ?
https://usbeketrica.com/fr/article/demain-les-ia-seront-elles-transphobes-et-fieres-de-l-etre

L’IA, amplificateur de stéréotypes de genre
https://wearesista.com/lia-amplificateur-de-stereotypes-de-genre/#:~:text=L'IA%2C%20un%20milieu%20où,représentent%20que%2022%25%20des%20équipes.

 

Les hommes et les femmes n'utilisent pas l'intelligence artificielle à la même fréquence et de la même manière.

https://www.tf1info.fr/high-tech/les-hommes-et-les-femmes-n-utilisent-pas-l-intelligence-artificielle-a-la-meme-frequence-et-de-la-meme-maniere-2396147.html

Comment l'IA renforce les préjugés sexistes - et ce que nous pouvons faire à ce sujet

 

"Les étapes vers des systèmes d’IA plus inclusifs

 

L’intelligence artificielle peut être utilisée pour réduire ou perpétuer les préjugés et les inégalités dans nos sociétés. Voici, les cinq étapes recommandées par Mme Villar pour rendre l’IA inclusive – et l’améliorer.

  • Utiliser des ensembles de données diversifiés et représentatifs pour entraîner les systèmes d’IA
  • Améliorer la transparence des algorithmes des systèmes d’IA
  • Veiller à ce que les équipes de développement et de recherche en matière d’IA soient diversifiées et inclusives afin d’éviter les angles morts 
  • Adopter de solides cadres éthiques pour les systèmes d’IA
  • Intégrer des politiques tenant compte des questions de genre dans le développement des systèmes d’IA"

https://www.unwomen.org/fr/nouvelles/interview/2025/02/comment-lia-renforce-les-prejuges-sexistes-et-ce-que-lon-peut-faire-pour-tenter-dy-remedier#:~:text=L'IA%20a%20contribué%20à%20révéler%20la%20disparité%20en%20fonction,pour%20le%20rendre%20plus%20inclusif.

L’INTELLIGENCE ARTIFICIELLE EST-ELLE L’ALLIÉE DE LA DIVERSITÉ ? - GOODS TO KNOW

  • "Les IA génératives sont de fabuleux appuis pour générer, diffuser et analyser des pratiques inclusives.
  • Les IA génératives sont une menace sans précédent pour la diversité et l’inclusion"

https://www.goodstoknow.fr/lintelligence-artificielle-est-elle-lalliee-de-la-diversite/

Féminiser l’intelligence artificielle : un enjeu majeur !

"La digitalisation, l’évolution des moyens de communication, du numérique et les progrès qu’a apporté l’intelligence artificielle dans nos quotidiens sont considérables. Derrière les longs algorithmes de programmation, les recherches scientifiques, et les différentes analyses réalisées dans le cadre d’un projet de machine learning se cache souvent un profil de créateur, développeur, analyste et réalisateur. EnEn majorité, on parle ici d’équipes composées de scientifiques et de chercheurs masculins, jusqu’à ce qu’émerge l'idée de féminiser l’intelligence artificielle.

https://www.nexa.fr/post/feminiser-l-intelligence-artificielle-enjeu-majeur#:~:text=Confier%20des%20missions%20importantes%20%C3%A0%20plus%20de%20femmes&text=Elles%20ont%20m%C3%AAme%20tendance%20%C3%A0,importantes%20%C3%A0%20plus%20de%20femmes.

 

Femmes et intelligence artificielle : briser les stéréotypes, façonner l’avenir

"Un enjeu de parité

Si l’intelligence artificielle est indéniablement porteuse de progrès, elle soulève aujourd’hui des préoccupations majeures, notamment en matière d’égalité de genre. En effet, elle ne se contente pas de refléter ces inégalités, mais elle les génère, les amplifie et les perpétue.

Tout commence dès la formation et l’accès aux métiers technologiques, où la présence des femmes reste marginale. En Europe, elles ne représentent que 26 % des effectifs du secteur, un chiffre pourtant supérieur à la moyenne mondiale, qui plafonne à 22 %, selon le premier baromètre européen de l’IA, réalisé par EY, Fabernovel et Opinion Way, publié lors du Sommet pour l’Action sur l’IA des 10 et 11 février 2025.

Cette sous-représentation a des conséquences directes sur la conception des algorithmes, qui sont influencés par une vision « masculine » du monde. En France, interroger une IA sur une profession sans préciser le genre aboutit à des stéréotypes bien ancrés : un dirigeant est souvent représenté comme un homme, tandis qu’une infirmière sera une femme."

https://www.reseau-lepc.fr/femmes-et-intelligence-artificielle-briser-les-stereotypes-faconner-lavenir/?gad_source=1&gad_campaignid=22440318437&gbraid=0AAAAAqjRm6mNASim7L5PB8XyZcxvmaHNm&gclid=Cj0KCQjwrc7GBhCfARIsAHGcW5WLw23JDo-KZs7RQhAwbdfkyEGvi3WEKp16_a_-8I5GnHeLBoGopeAaAs3bEALw_wcB

OUI, l'IA est encore sexiste, MAIS l'évolution actuelle se fait grâce à une participation de plus en plus importante des femmes.

Il est important de se rappeler que le sexisme est également "pays dépendant".


Il est important aussi  que des femmes comme Aurélie Jean se multiplient… la femme est l'avenir de l'IA ! 

"Les algorithmes ne sont ni sexistes, ni racistes, ni coupables d’une quelconque faute ; les seuls responsables sont ceux qui les conçoivent et qui les alimentent de leurs données par leurs usages parfois biaisés. Nous, humains, sommes les responsables de cette division algorithmisée injuste et redoutable des êtres, ou des abus et autres malhonnêtetés dont le vecteur d’action, voire l’arme, est l’algorithme." Aurélie Jean


Copyright : Dr Jean-Pierre Laroche / 2025