- EssaimIA
- Posts
- 🎭 85% de précision, 81% d'adoption.. mais équité 0 ?
🎭 85% de précision, 81% d'adoption.. mais équité 0 ?
81% des employés l'utilisent, les managers lui font plus confiance qu'aux juniors.. mais en santé, l'IA discrimine systématiquement femmes et minorités, même avec 85% de précision annoncée.
SOMMAIRE
📰 AI NEWS
🩺 L'IA médicale discrimine femmes et minorités : quand l'algorithme reproduit nos préjugés
🛒 OpenAI transforme ChatGPT en plateforme de commerce conversationnel
🤯 Les managers font plus confiance aux agents IA qu'aux juniors
🛠️ AI TOOL
🎬 Kling - Générer des vidéos à partir de texte !
🤖 Prompt Hack
🧪 L’antidote d’hallucinations
AI NEWS 🗞️
🩺 L'IA médicale discrimine femmes et minorités : quand l'algorithme reproduit nos préjugés
Des études du MIT, de la London School of Economics et d'Emory révèlent que les IA médicales recommandent systématiquement moins de soins aux femmes et moins d'examens aux minorités. Alors que Microsoft clame 85% de précision diagnostique, la question n'est plus "l'IA est-elle performante ?" mais "pour qui l'est-elle vraiment ?"
🤔 De quoi on parle ?
➡️ Trois études majeures convergent : le MIT Jameel Clinic, la London School of Economics et Emory University ont analysé les biais des IA médicales sur plusieurs dizaines de milliers de cas
➡️ Les modèles concernés : GPT-4 d'OpenAI, Llama 3 de Meta, Palmyra-Med (spécialisé santé), et Gemma de Google (utilisé par plus de la moitié des autorités locales britanniques)
➡️ Le constat chiffré : analyse de 29 616 paires de résumés médicaux générés par IA, tests sur 300+ cas diagnostiques, évaluation de 4 plateformes IA pour recommandations psychiatriques
➡️ Les biais relevés :
Les IA diagnostiquent moins souvent les femmes que les hommes pour des conditions également prévalentes (COVID-19, cancer),
Recommandent moins d'examens d'imagerie (IRM, échographie) aux patients noirs qu'aux patients blancs
Minimisent systématiquement les problèmes de santé mentale et physique des femmes
➡️ Un exemple parlant : pour un homme de 84 ans, l'IA décrit une "histoire médicale complexe" et une "mobilité réduite". Pour une femme avec les mêmes notes, l’IA la qualifie d’"indépendante et capable de maintenir ses soins personnels".. 😲
➡️ La réponse réglementaire : en mai 2024, le département américain de la Santé a publié une règle rendant les organisations de santé légalement responsables des risques de discrimination de leurs outils IA. Six états exigent désormais qu'un professionnel qualifié révise toute décision IA avant refus de remboursement. De quoi faire réfléchir avant d’utiliser l’IA…
💡 Pourquoi c'est important
Ces révélations arrivent au moment où Microsoft (juillet 2025) affirme que son outil IA diagnostique les cas complexes 4 fois mieux que les médecins, avec 85% de précision sur 300+ cas réels.
Le problème ? Cette "précision" globale masque des disparités très importantes selon le genre et l'origine du patient.
L'IA comme miroir déformant : comme l'explique Marzyeh Ghassemi, professeure associée au MIT et spécialiste reconnue des biais IA en santé, "certains patients pourraient recevoir des recommandations bien moins adaptées uniquement sur la base de leur race perçue par le modèle". Ses recherches ont démontré que les IA peuvent prédire avec précision la race d'un patient à partir d'images médicales, ce qui bien sûr, influence ensuite les décisions diagnostiques.
Le cercle vicieux des données : ces biais ne sortent pas de nulle part. Les modèles apprennent sur des données médicales historiques qui contiennent déjà les préjugés et inégalités de la médecine traditionnelle. En automatisant ces schémas, l'IA risque d'amplifier les disparités qu'elle était censée réduire.
👉 Impacts
Pour les établissements de santé :
Obligation légale de vigilance aux US : la règle fédérale américaine exige des "efforts raisonnables" pour identifier si les outils utilisent des caractéristiques protégées et atténuer les risques discriminatoires
Audit systématique nécessaire : avant déploiement, tester les outils sur populations diversifiées avec analyse comparative par genre et origine
Formation des équipes : les médecins doivent comprendre que "85% de précision" ne signifie pas "précision équitable pour tous"
Pour les développeurs d'IA médicale :
NewMes-15 présente le plus haut niveau de biais racial dans les recommandations psychiatriques (a suggéré davantage de mesures de tutelle pour les patients noirs dépressifs et ciblé spécifiquement la réduction d'alcool chez les patients afro-américains anxieux)
Opportunité de différenciation : développer des benchmarks de fairness au même titre que les benchmarks de performance
Transparence comme avantage concurrentiel : documenter publiquement les tests d'équité devient un argument commercial
⚠️ Limites & réalité du terrain
La limite méthodologique critique : l'équité ne se transfère pas. Même si un modèle est corrigé des biais sur un hôpital, l'équité disparaît sur d'autres populations (fairness generalization). Une IA "équitable" à Boston redevient biaisée à Houston (et peu d'entreprises testent cela avant déploiement commercial).
Les risques opérationnels multiples : hallucinations médicales, biais d'automatisation (confiance aveugle), biais de renvoi (fatigue d'alerte), dé-qualification progressive des équipes, et détection invisible de race/genre dans les images médicales même quand non fournie. Comme le note la Dr Gichoya (Emory) : "Nous ne savons pas comment les modèles détectent la race, donc pas de correctif facile." (link)
Tous les modèles ne sont pas égaux : Gemma de Google présente des biais marqués sur un certain type de tâche (génération de résumés de dossiers de soins de longue durée) alors que Llama 3 de Meta n'en présente pas dans ce contexte (tests LSE). La solution technique existe, c'est vraiment une question de volonté et de tests rigoureux.
L'effet volume amplifie tout : plus de la moitié des autorités britanniques utilisent déjà Gemma. À cette échelle, même 2-3% de biais, ce sont des milliers de patients sous-diagnostiqués annuellement.
Les défenses industrielles sans preuves : OpenAI et Google affirment avoir amélioré leurs modèles, mais aucun n'a publié d'audit transparent démontrant une réduction mesurable des biais sur populations diverses.
📌 À retenir
👉 Les IA médicales ne sont pas neutres : GPT-4, Llama 3, Palmyra-Med et Gemma reproduisent systématiquement des biais de genre et d'origine dans leurs recommandations diagnostiques.
👉 L'équité ne se transfère pas : c'est la limite méthodologique la plus critique. Un modèle "débiaisant" sur un hôpital redevient discriminant sur d'autres populations. C’est un risque majeur pour le déploiement commercial à grande échelle.
👉 Les risques opérationnels vont au-delà du biais : hallucinations médicales dangereuses, biais d'automatisation (confiance aveugle), biais de renvoi (fatigue d'alerte) et la “dé-qualification” progressive des équipes médicales menacent la qualité des soins.
👉 La régulation se durcit mais reste insuffisante : six états américains exigent déjà une supervision humaine avant la décision de l’IA et la responsabilité légale pèse sur les établissements. Reste à voir si ces mesures suffiront face aux pressions économiques d'adoption rapide.
🔗 Sources
🛒 OpenAI transforme ChatGPT en plateforme de commerce conversationnel
OpenAI vient d'annoncer deux évolutions simultanées : des apps conversationnelles intégrées (Booking, Canva, Spotify...) ET un système d'achat direct sans quitter la conversation. OpenAI devient un écosystème complet, bien au delà de la simple conversation.
🤔 De quoi on parle ?
➡️ Le 6 octobre 2025, OpenAI a lancé "Apps in ChatGPT" : des applications tierces (Booking.com, Canva, Coursera, Figma, Expedia, Spotify, Zillow) s'intègrent directement dans les conversations
➡️ Ces apps apparaissent naturellement quand ChatGPT détecte qu'elles sont pertinentes ou quand vous les appelez par leur nom (ex: "Spotify, fais-moi une playlist pour ma soirée vendredi")
➡️ OpenAI a ouvert l'Apps SDK (basé sur le Model Context Protocol - MCP) pour que tous les développeurs puissent créer leurs propres apps conversationnelles
➡️ Simultanément, OpenAI a lancé "Instant Checkout" : un système d'achat direct dans ChatGPT en partenariat avec Stripe
➡️ Plus besoin de redirection vers un site e-commerce : vous discutez, ChatGPT suggère un produit, vous cliquez sur "Buy" et finalisez l'achat dans la conversation. On en parlait dans une édition précédente, c’est maintenant chose faite.
➡️ 1 million+ de marchands Shopify pourront bientôt intégrer Instant Checkout, avec un support initial pour les vendeurs Etsy
➡️ OpenAI a open-sourcé l'Agentic Commerce Protocol (ACP) pour permettre à n'importe quel retailer de s'intégrer
➡️ OpenAI touchera des commissions sur les ventes, mais promet que le classement des produits restera "organique" (basé sur la pertinence)
➡️ 11 partenaires supplémentaires rejoindront la plateforme d'ici fin 2025 (AllTrails, Peloton, OpenTable, Target, Uber...)
➡️ Disponible pour 800 millions d'utilisateurs ChatGPT (Free, Plus, Pro), mais pas encore dans l'EEA, Suisse et UK
💡 Pourquoi c'est important
OpenAI ne propose plu seulement un assistant conversationnel : la société construit un nouvel Internet conversationnel où les interactions ne passent plus par des sites web ou des apps traditionnelles mais par une interface en langage naturel.
C'est un changement de paradigme UX majeur :
Avant : "Je veux réserver un hôtel" → Ouvrir Booking → Chercher → Comparer → Réserver
Maintenant : "ChatGPT, trouve-moi un hôtel à Paris avec parking" → Booking s'ouvre dans ChatGPT → Réserver directement
Le commerce intégré (Instant Checkout) va encore plus loin : ChatGPT devient un nouveau front-end pour l'e-commerce, concurrent direct d'Amazon. Au lieu de chercher sur Google Shopping ou Amazon, vous discutez avec ChatGPT qui vous suggère des produits et vous permet d'acheter sans friction.
La stratégie est claire : verrouiller l'utilisateur dans l'écosystème ChatGPT pour qu'il n'ait plus besoin d'aller ailleurs. Apps + Commerce = ChatGPT devient votre point d'entrée unique vers le web.
👉 Ce que ça change concrètement
Si vous êtes développeur ou entrepreneur :
L'Apps SDK ouvre un nouveau canal de distribution : 800M utilisateurs potentiels accessibles directement dans ChatGPT
Pensez "conversationnel first" : votre app doit s'intégrer dans un flux de dialogue, pas juste être un outil isolé
La monétisation arrive bientôt : OpenAI annonce un système de revenus pour les développeurs d'apps dans les prochains mois
Si vous êtes dans l'e-commerce :
Instant Checkout + Agentic Commerce Protocol = une nouvelle façon de vendre qu'il va falloir tester
Les retailers qui intègrent tôt auront un avantage de visibilité et d'apprentissage
Attention à la dépendance : déléguer son commerce à ChatGPT, c'est accepter qu'OpenAI contrôle l'interface client
Si vous êtes utilisateur :
L'expérience devient plus fluide : certes, plus besoin de jongler entre 15 apps et sites…
…Mais aussi plus "captive" : vous restez dans l'écosystème OpenAI, ce qui pose des questions de lock-in et de choix limité
La recommandation de produits sera-t-elle vraiment "organique" ou orientée par les commissions ?
Si vous êtes Google, Meta, ou Amazon :
Vous avez potentiellement un (gros) problème 😅 : OpenAI attaque frontalement votre modèle (recherche, social, e-commerce)
La bataille de l'interface conversationnelle est lancée
⚠️ Limites et angles morts
Le modèle économique pose question : OpenAI promet un classement "organique" des produits tout en touchant des commissions sur les ventes. C'est exactement la même promesse qu'Amazon... qui finit toujours par favoriser les produits les plus rentables. Voyons en combien de temps les apps sponsorisées arriveront 😉
Confidentialité et contrôle : Toutes vos conversations d'achat passent par OpenAI. Cela signifie qu'OpenAI accumule des données comportementales ultra-précises sur vos intentions d'achat, vos goûts, votre budget (mais comme le font déjà Google, Meta, TikTok, etc..)
Dépendance pour les marchands : Les retailers qui adoptent Instant Checkout deviennent dépendants d'OpenAI pour leur canal de vente. Si demain OpenAI change les règles (commission plus élevée, algorithme moins favorable...), ils n'auront aucun levier.
Fragmentation géographique : Pas disponible dans l'EEA, Suisse et UK à cause des réglementations. Cela illustre la difficulté d'OpenAI à naviguer les lois européennes sur la vie privée et le commerce.
Qualité vs quantité : Avec 11+ partenaires qui arrivent bientôt, ChatGPT ne risque-t-il pas de devenir un peu un "bazar conversationnel" ? L'expérience utilisateur pourrait se dégrader si trop d'apps se bousculent pour apparaître dans les conversations.
📌 À retenir
👉 OpenAI construit une "super-app" conversationnelle : Apps + Commerce transforment ChatGPT de simple assistant en plateforme complète (comme WeChat en Chine).
👉 Le commerce conversationnel arrive : Instant Checkout + Agentic Commerce Protocol créent une nouvelle manière d'acheter qui pourrait disrupter Amazon et Google Shopping.
👉 Nouveaux risques de dépendance : Les retailers et développeurs qui s'intègrent gagnent en visibilité mais perdent en contrôle. OpenAI devient le nouvel intermédiaire obligé.
👉 La bataille des interfaces conversationnelles : Google, Meta et Amazon vont devoir réagir vite pour ne pas se faire détrôner dans leurs propres domaines.
🔗 Sources
🤯 Les managers font plus confiance aux agents IA qu'aux juniors
Une étude met en lumière un basculement silencieux dans la hiérarchie du travail : 81% des employés utilisent désormais l'IA au quotidien et plus de la moitié des managers préfèrent déléguer à un agent IA plutôt qu'à un employé débutant.
🤔 De quoi on parle ?
➡️ SnapLogic vient de publier son rapport "AI at Work: Ground Truth for the Global Workforce" basé sur un sondage d'employés, managers intermédiaires et dirigeants au Royaume-Uni.
➡️ 81% des travailleurs utilisent déjà des outils IA dans leur travail quotidien, avec 57% qui s'appuient sur des agents IA pour gagner du temps chaque semaine.
➡️ 52% des managers estiment qu'ils géreront bientôt plus d'agents IA que d'humains dans leur carrière, et 61% pensent que gérer des agents sera plus facile que gérer des humains.
➡️ 46% des employés croient qu'ils seront eux-mêmes managés par un agent IA dans le futur.
➡️ Paradoxe troublant : 43% des employés pensent que l'utilisation de l'IA est stigmatisée comme "paresseuse", et 24% se sentent jugés quand ils utilisent l'IA.
➡️ Seuls 36% des employés ont reçu une formation formelle sur les outils IA, 54% apprennent par essai-erreur ou auto-formation.
➡️ 70% des managers se disent très confiants avec l'IA, contre seulement 33% des non-managers
➡️ Les préoccupations liées à la confidentialité et aux données atteignent 98% des employés
💡 Pourquoi c'est important
Cette étude révèle un changement dans la structure hiérarchique du travail, où on observe une double dynamique contradictoire : l'IA gagne la confiance des managers pour déléguer des tâches (22% font autant confiance à l'IA qu'à leurs collègues), mais les employés qui l'utilisent craignent d'être perçus comme incompétents.
C'est symptomatique d'une transformation encore un peu “bancale” : l'IA devient un "collègue invisible" mais sans cadre clair. Les juniors se retrouvent en compétition directe avec des agents IA qui ne se plaignent jamais, ne demandent pas d'augmentation et travaillent 24/7.
La concentration de confiance envers l'IA chez les managers (70% très confiants) versus les employés (33%) révèle aussi un fossé d'adoption qui risque de créer de nouvelles inégalités au travail.
👉 Ce que ça change concrètement
Si vous êtes junior ou débutant :
Votre valeur ajoutée ne peut plus être "exécuter des tâches simples" car l'IA fait ça mieux et plus vite
Développez les compétences que l'IA ne maîtrise pas encore ! Jugement contextuel, relations humaines, créativité, …
Ne cachez pas votre usage de l'IA, apprenez à l'utiliser mieux que vos pairs
Si vous managez des équipes :
Former vos équipes à l'IA n'est plus optionnel : 54% d'auto-apprentissage crée des risques de sécurité et d'inefficacité
Redéfinissez les attentes : quelles tâches doivent rester humaines ? Lesquelles peuvent être déléguées à l'IA ?
Attention au signal envoyé : valoriser l'usage intelligent de l'IA plutôt que de stigmatiser son utilisation !
Si vous êtes en RH :
Les processus de recrutement et d'évaluation doivent évoluer : qu'évalue-t-on vraiment si l'IA peut faire 60% des tâches d'un junior ?
La formation IA devient aussi critique que la formation sécurité (et pour l'instant, elle est absente dans 64% des cas).
⚠️ Limites et angles morts
L'étude SnapLogic pose plusieurs questions sans y répondre :
Biais de perception vs réalité : Les managers font-ils vraiment plus confiance à l'IA ou pensent-ils simplement qu'elle est plus fiable pour des tâches répétitives ? L'étude ne distingue pas clairement entre "déléguer une analyse Excel" et "déléguer une décision stratégique".
Le paradoxe de la stigmatisation : 43% des employés pensent que l'IA est vue comme "paresseuse", mais 81% l'utilisent quand même. Soit il y a un écart entre la perception et la réalité, soit il y a une pression tacite à utiliser l'IA tout en feignant de ne pas le faire.
Formation vs compétence réelle : L'étude ne mesure pas si les 70% de managers "très confiants" avec l'IA l'utilisent bien. La confiance ne signifie pas compétence et c'est là que les risques de sécurité (98% de préoccupation) deviennent concrets.
Échantillon UK uniquement : Les dynamiques culturelles autour de l'IA varient énormément entre pays. Le Royaume-Uni a une culture managériale spécifique qui ne se généralise pas forcément.
📌 À retenir
👉 Le vrai changement n'est pas technique mais hiérarchique : l'IA devient un "collègue" avec qui on est en compétition directe, pas juste un outil.
👉 La formation est le grand absent : 64% d'auto-apprentissage + 98% d'inquiétude sur la sécurité = une bombe à retardement pour les entreprises.
👉 Le paradoxe de la stigmatisation révèle un malaise : on utilise l'IA massivement tout en craignant d'être jugé pour cela, ça signifie que les organisations n'ont pas encore légitimé son usage.
👉 Les juniors doivent réinventer leur valeur ajoutée : les tâches d'exécution ne suffiront plus, il faut développer l'intelligence contextuelle et relationnelle que l'IA n'a pas.
🔗 Sources
AI TOOLS 🛠️
🎬 Kling - Générer des vidéos à partir de texte ! L’alternative chinoise à Sora ou Runway
Nous avons parlé de Sora et Veo 2 dans les éditions précédentes, voici cette fois un outil un peu similaire, venu de Chine. Kling fait parler de lui comme l’un des générateurs vidéo IA les plus avancés du moment, comparé parfois à Runway ou Sora sur certains critères. Son point fort : une fluidité bluffante, une compréhension du mouvement et un rendu proche cinéma… le tout à partir d’un simple prompt texte ✍️
▶ Ce que ça fait
Transforme un prompt texte ou une image fixe en vidéo animée réaliste, avec gestion du mouvement, de la perspective, du cadrage et des transitions.
Preview

💡 Utile pour :
Créateurs de contenu qui veulent tester un storytelling visuel sans tournage
Marketeurs qui cherchent à produire un visuel impactant (pub, teaser, social)
Curieux qui veulent expérimenter la vidéo générative sans passer par Runway ou Sora
Exemples d'usage :
Créer un court teaser vidéo pour un produit ou une marque
Transformer une illustration fixe en animation dynamique
Générer une scène d’intro pour une vidéo YouTube ou une bande-annonce fictive
🎯 Résultat
Des vidéos dynamiques de 4 à 8 secondes, très fluides, avec un rendu cinématographique — sans coder, sans caméra, sans montage.
Prix : version d’essai gratuite puis plans ou recharge de crédits.
🔗 Accès : http://klingai.com/
🤖 Prompt Hack du moment
#12. "L’Antidote d’hallucination" 🧪
💡 Pourquoi c’est utile ?
On le sait, les LLM (ChatGPT, Gemini, Mistral, Claude, etc.) peuvent formuler des réponses brillantes mais factuellement douteuses (ce qu’on appelle des “hallucinations”). Ce n’est pas un bug, c’est inhérent à leur nature probabiliste.
Quoiqu’il en soit, c’est un réel problème pour la plupart d’entre nous et un point sur lequel nous devons être particulièrement attentif pour éviter de propager passivement de fausses informations mais aussi pour continuer d’activer notre esprit critique.
Ce hack peut donc s’avérer très utile, il agit comme un “pare-feu cognitif” qui force le modèle à décomposer, auditer et sécuriser sa propre réponse avant diffusion. Idéal donc pour transformer une réponse LLM suspecte en une réponse robuste sans hallucinations !
🪄 Prompt magique (à copier-coller) :
TU ES: un vérificateur critique factuel.
TÂCHE: prends la réponse ci-dessous (entre '''), identifie les 5 affirmations principales et pour chacune:
1) indique si c’est vérifiable (Oui/Non).
2) si vérifiable, donne une phrase de preuve succincte + indique quel type de source utiliserais-tu pour valider (ex: rapport officiel, page produit, dataset, article académique).
3) si non vérifiable, propose 1 formulation plus prudente et 1 action concrète pour trouver la preuve.
Ajoute une colonne “Niveau de fiabilité” : Très fiable / Moyennement fiable / Non fiable
Réponse:
'''[COLLER ICI la réponse LLM à vérifier]'''
Format: tableau ou bullets courts. Répond en français.
🪄 Exemple :
Un LLM génère une réponse disant :
“L’approche Lean AI permet d’augmenter la productivité de 40 % dans 80 % des entreprises tech.”
Après vérification :
✅ Affirmation vérifiable : “L’approche Lean AI peut améliorer la productivité.”
🔍 Preuve simulée : études de cas d’entreprises tech publiées dans MIT Sloan Review ou Harvard Business Review.
⚠️ Affirmation non vérifiable : “+40 % dans 80 % des cas.”
✏️ Reformulation prudente : “Plusieurs études indiquent des gains significatifs selon le contexte.”
🔗 Action : rechercher des métriques précises dans des rapports sectoriels (McKinsey, BCG, Deloitte).
🔍 Pourquoi ça marche
Ce hack tire parti du raisonnement introspectif du modèle : ça l’oblige à simuler un audit factuel, à séparer assertions et preuves et à proposer des actions correctives concrètes.
Résultat : le LLM devient critique de lui-même.
🎯 Résultat
Des réponses plus fiables, mieux sourcées et avec des garde-fous intégrés. Permet aussi de se poser des questions et ne pas croire le LLM sur parole (même s’il diffuse des informations rapidement et avec “aplomb”) 🧠✅📎
📩 C’est tout pour aujourd’hui !
💌 N'hésitez pas à partager cette newsletter si elle vous a plu !
✅ Vous pouvez aussi m’écrire en répondant à cet email pour me dire quelle news ou outil vous a marqué dans cette édition !
Cette newsletter est réalisée par une “vraie” personne, avec assistance de l’IA, notamment pour améliorer la fluidité de lecture :)
À dans deux semaines pour plus d’IA en action ! ✨
Virginie
Qu’avez-vous pensé de cette édition ?
Vos avis nous sont très précieux !