• EssaimIA
  • Posts
  • 🧠 "J'en étais où ?" : le vrai problème de ceux qui utilisent l'IA au quotidien

🧠 "J'en étais où ?" : le vrai problème de ceux qui utilisent l'IA au quotidien

On produit plus, on découvre autrement mais on perd le fil... Trois angles pour y voir clair

SOMMAIRE

📰 AI NEWS
📽️ Et si l'IA devenait notre meilleur prescripteur ?
🧑‍🏭 L'IA nous fait gagner du temps, mais nous épuise aussi !
🧠 Des centaines de conversations IA mais aucune mémoire ?

🛠️ AI TOOL
🎙️ Scrivari : la transcription qui sait qui parle, qui résume et qui peut anonymiser !

🤖 Prompt Hack
🎬️ Préparez votre playlist avec l’IA : le prompt qui remplace l'algorithme de Netflix

 

AI NEWS 🗞️

📽️ Et si l'IA devenait notre meilleur prescripteur ?

Dans une édition précédente, on parlait de l'agentic commerce : les LLM qui deviennent plateformes d'achat, des agents IA qui comparent et achètent à notre place sans passer par une marque. Le constat était clair : quand l'IA s'insère entre le consommateur et le produit, la marque perd son rôle de raccourci mental. On ne demande plus "des Nike", on demande "des chaussures confortables pour marcher sous la pluie", et l'IA traduit.

Depuis, ça s'est accéléré : Shopify, Google, Walmart et Target ont co-développé un protocole ouvert (Universal Commerce Protocol) pour que les agents IA puissent acheter sur n'importe quelle plateforme.

Mais le même phénomène commence à toucher un autre terrain : la façon dont on découvre ce qu'on regarde 🎥 , ce qu’on écoute 🔈️ et ce qu’on lit 📰 .

Par exemple, on a l'habitude de chercher nos séries sur Netflix, notre musique sur Spotify et des articles sur Google mais de plus en plus d'utilisateurs demandent directement des recos à un LLM. Et ce qui en sort est souvent étonnamment juste.

🤔 De quoi on parle ?

Il y a quelques mois, tard dans la soirée, je me suis dit que je regarderais bien une série. Le problème c'est que j'en ai déjà vu beaucoup et je n'avais aucune envie de passer mon temps à scroller Netflix pour trouver quelque chose qui pourrait me plaire.. Alors j'ai fait le test : j'ai donné à ChatGPT une liste de séries que j'avais adorées par le passé et je lui ai demandé de m'en trouver d'autres susceptibles de me plaire. En gros, je lui ai demandé d'agir comme l'algo de matching de Netflix.

Avant de me faire des suggestions, ChatGPT a d'abord qualifié mes goûts. Et d’ailleurs, j'ai été assez bluffée qu'il arrive à formuler ce que j'aime avec une précision que moi-même je n'aurais pas su exprimer. On sait ce qu'on aime, mais on a rarement les mots pour le décrire de façon aussi fine.

Ensuite, il m'a proposé une liste mais j'avais déjà tout vu (ce qui était déjà bon signe). Alors on a affiné et on a même pris en compte mon humeur du moment (je n'avais pas envie de quelque chose de triste), et il a fini par me sortir des titres que je ne connaissais pas et dont je n'avais jamais entendu parler.

Ce qui est intéressant, c'est que ma première réaction n'a pas été de foncer regarder. Elle a été de douter. "Oui mais non, il doit se tromper là." J'ai passé du temps à chercher par moi-même, à hésiter, à revoir d'anciennes séries plutôt que de tester ses suggestions. Ce n'est qu'en m'y mettant que j'ai réalisé que ses recommandations étaient bonnes. Toutes !

Le frein n'était pas la qualité de la suggestion mais ma confiance dans la "machine". On retrouve cette méfiance dans pas mal d'autres cas (la voiture autonome pour n'en citer qu'un).

➡️ Mais c'est un mécanisme qu'on va sans doute observer de plus en plus : l'outil est souvent meilleur que ce qu'on croit, même si on met du temps à l'accepter. On préfère revenir à nos habitudes (scroller Netflix, demander à un ami, relire les mêmes critiques) plutôt que de faire confiance à une recommandation qu'on ne comprend pas vraiment.

➡️ Doug Shapiro, analyste média, en parle dans un article récent : et si l'IA devenait la nouvelle couche de découverte pour tout ce qu'on consomme ? Son argument : les mécanismes actuels de découverte sont fragmentés : Netflix recommande dans Netflix, Spotify dans Spotify, YouTube dans YouTube. Aucune plateforme n'a intérêt à vous envoyer chez un concurrent. L'IA, elle, peut traverser les catalogues et recommander un podcast Spotify après une série Netflix, parce qu'elle comprend ce que vous cherchez, pas le trouver.

➡️ Et l'IA ne se contente pas de recommander : elle qualifie. C'est la différence avec un algorithme classique. Netflix vous montre "parce que vous avez regardé X". L'IA peut vous dire "tu aimes les séries avec des personnages moralement ambigus, un rythme lent et des fins ouvertes, voici ce qui correspond". Elle met des mots sur vos préférences et les transforme en critères de recherche. C'est une forme de connaissance de soi par procuration très utile (et un peu troublante à la fois).

Ce que ça change pour les créateurs et les plateformes

Si l'IA devient le point d'entrée principal pour découvrir du contenu, alors la valeur n’est plus dans les plateformes (qui contrôlent aujourd'hui la visibilité) mais dans l'interface de recommandation (et les plateformes deviennent juste des fournisseurs parmi d'autres).

Shapiro donnait un exemple parlant : la série Suits a tourné pendant 9 saisons sur USA Network avec environ 1 million de téléspectateurs par épisode. Quand Netflix a racheté les droits de diffusion en 2023, elle est devenue la série la plus regardée de la plateforme avec 58 milliards de minutes vues aux États-Unis. Le contenu était le même. Ce qui a changé, c'est la découverte : Netflix a mis la série devant des millions de gens dont le profil de visionnage correspondait, mais qui n'auraient jamais croisé Suits sur le câble. La bonne série, devant les bonnes personnes, au bon moment.

Si demain une IA fait ça mieux que Netflix, la question qui se pose est : pourquoi rester fidèle à une plateforme plutôt qu'à un assistant qui connaît vos goûts et cherche partout ?

Pour les créateurs, le risque est celui de la dilution : si l'IA résume, extrait et recommande sans toujours citer la source, le contenu devient une matière première. L'utilisateur ne sait plus s'il consomme du contenu du New York Times ou d'un blog spécialisé, il consomme ce que son assistant lui a présenté.

📌 À retenir

👉 L'IA commence à orienter nos choix de consommation culturelle, et elle le fait souvent mieux que les algorithmes des plateformes.

👉 Le vrai frein n'est pas la qualité des suggestions, c'est notre confiance. On préfère encore scroller dans un catalogue familier plutôt que de suivre une recommandation qu'on ne comprend pas.

👉 Si l'IA devient la couche de découverte principale, la valeur se déplace des plateformes (Netflix, Spotify) vers l'interface de recommandation. C'est le même phénomène que dans le commerce : la marque compte moins que la pertinence.

📎 Sources

🧑‍🏭 L'IA nous fait gagner du temps, mais nous épuise aussi !

Si vous utilisez intensivement la GenAI, vous avez peut-être remarqué ça : on va de plus en plus vite, alors on enchaîne de plus en plus.

Chaque tâche terminée procure un sentiment de satisfaction, et au lieu de s'arrêter, on se dit "allez, encore une dernière"... puis une autre. L'IA crée
une boucle de récompense rapide, proche de ce que produisent les jeux vidéo ou les réseaux sociaux, qui pousse à ne jamais décrocher.

🤔 De quoi on parle ?

Le constat revient souvent chez les utilisateurs avancés : on va plus vite sur presque tout, mais on ne travaille pas moins. Au contraire, on enchaîne davantage de tâches, on ouvre plus de sujets, les journées deviennent plus denses qu'avant. Un compte rendu en quelques minutes, une idée
clarifiée, un mail envoyé, un début de solution esquissé, et au lieu de s'arrêter : "je suis lancé(e), autant avancer sur autre chose !".

Comme c'est rapide et fluide, rien ne nous incite à faire une pause.

➡️ C'est ce qu'ont observé des chercheurs de UC Berkeley (Aruna Ranganathan et Xingqi Maggie Ye, Haas School of Business) pendant huit mois, en immersion dans une entreprise tech de 200 personnes utilisant l’IA. Résultat : personne n'est parti plus tôt, le travail a débordé sur les pauses déjeuner, les soirées, les week-ends, les listes de tâches se sont élargies pour remplir chaque heure que l'IA avait libérée, puis ont continué à grossir.

Trois formes d'intensification sont apparues :

  • L'expansion des tâches : des product managers se mettent à coder, des designers font de la recherche, parce que l'IA rend ça "faisable",

  • L’effacement des frontières : on prompte entre deux réunions, pendant une pause, sans avoir l'impression de travailler plus,

  • Le multitâche permanent : plusieurs fils IA en parallèle, un sentiment constant de jonglage.

Le phénomène n'est pas nouveau et classique en économie :

quand une tâche devient plus rapide, on ne libère pas du temps, on augmente ce qu'on fait avec ce temps.

Mais avec la GenAI, c'est plus brutal : on ne gagne pas 10% sur une tâche, on peut aller 2 à 5 fois plus vite, et surtout on peut enchaîner sans rupture. L'interaction est continue : on pose une question, on obtient une réponse, on ajuste, on améliore.

➡️ Cette boucle est courte, fluide et donne une impression de progression permanente. Le cerveau ne perçoit plus le même coût cognitif qu'avant, et ne déclenche plus naturellement de "stop".

Le "brain fry"

C’est le nom que les chercheurs de HBR ont donné à cette surcharge. Ce n'est pas du burnout classique mais une sorte de saturation cognitive aiguë : brouillard mental, difficulté à se concentrer, impression d'avoir "douze onglets ouverts dans la tête en même temps", comme le décrit un ingénieur.

Les chiffres rapportés sont nets : 33% de fatigue décisionnelle en plus, 39% d'erreurs graves supplémentaires, 39% d'intentions de démission en hausse...

Avec une asymétrie frappante : 62% des employés de terrain rapportent cet épuisement, contre 38% des dirigeants. Ceux qui décident du déploiement ne semblent pas être ceux qui en portent la charge pour l’instant.

C’est pas grave, c’est ludique ! 🙂 

Ce que j'observe moi (et que je n'ai pas trouvé dans les études pour l'instant), c'est que le travail avec l'IA peut aussi devenir très ludique. Mais c'est justement ce qui le rend encore plus difficile à arrêter.

Je le vois particulièrement sur le code : je crée un produit, j'ajoute une feature, elle fonctionne du premier coup ou presque, ça me procure une très grande satisfaction et au lieu de m'arrêter, je me dis : "mais en fait, pourquoi m’arrêter ? Je peux encore aller plus loin !". La satisfaction de voir quelque chose prendre forme est immédiate, alors j'enchaîne.

Ce n'est pas de la surcharge, c'est presque l'inverse :

c'est tellement fluide et gratifiant que le point d'arrêt naturel disparaît.

Ce qui est intéressant c’est que l'effet n'est pas le même partout pour moi et je vois deux chemins aux résultats différents :

  • Sur de la création (code, produit, prototype), c'est un plaisir de construction : on voit le résultat, ça se construit petit à petit, on a envie d'aller plus loin.

  • Sur des tâches administratives, c'est plutôt du soulagement : on "vide" sa liste, on se "débarrasse" de ce qui traîne.

Les deux poussent à continuer, mais le premier est nettement plus addictif. On peut se demander si cet effet est encore plus fort chez les profils qui voient le résultat concret de ce que l'IA produit.

🧩 Que faire concrètement ?

Ce que disent les études est assez clair et tourne autour de l'absence de limites quand on utilise l’IA Générative. Quelques tips pratiques à tester :

  • Se fixer un plafond d'outils en parallèle : les chercheurs HBR suggèrent trois agents IA maximum en simultané. Au-delà, la charge cognitive de supervision dépasse le gain de productivité. Plus on jongle, moins on pense.

  • Garder le temps gagné au lieu de le remplir : quand l'IA fait gagner une heure, la réaction par défaut est de prendre une tâche de plus. Garder l'heure demande une décision consciente, et c'est celle qui protège.

  • Donner à l'IA des blocs d'attention, pas des miettes : regrouper les sessions, protéger des plages de concentration, éviter de prompter entre deux réunions ou pendant une pause. Le prompting en continu ressemble à du travail léger, mais il fragmente l'attention.

  • Faire la différence entre déléguer et superviser : confier du répétitif à l'IA réduit le burnout de 15%. Piloter plusieurs IA en même temps l'augmente. Ce n'est pas le volume de travail qui épuise, c'est le type d'effort.

📌 À retenir

👉️ L'IA “étend” notre charge de travail : moins de tâches répétitives mais plus de supervision, de multitâche et de décisions à prendre.

👉️ Les plus exposés ne sont pas les sceptiques mais les power users, parce que la boucle de récompense rapide pousse à ne jamais décrocher.

👉️ Le sujet du temps “gagné” n'est probablement pas technologique mais culturel. Tant que la norme reste "faire toujours plus quand on peut faire plus", les gains de productivité se transformeront en charge supplémentaire. On entend parfois le "t'as pris ton après-midi ?" quand on part à 17h ou 18h (surtout dans les startups parisiennes).

Avant l'IA, je pensais déjà qu'on pouvait faire en 4 jours le travail de 5. Maintenant, c'est peut-être en 3 jours, voire 2 ! Mais tant qu’on est sur un mode 5j/5, le temps gagné sera absorbé par l'entreprise, pas récupéré par les gens.

Peut-être ne faut-il pas se demander "comment être plus productif avec l'IA", mais "qu'est-ce que je choisis de ne pas faire, maintenant que je peux tout faire plus vite".

📎 Sources

🧠 Des centaines de conversations IA mais aucune mémoire ?

Il y a quelques mois, j'ai voulu reprendre un projet sur lequel j'avais avancé la semaine précédente avec Claude. Le problème, c'est que je ne savais plus dans quelle conversation on avait exploré les options, laquelle contenait la décision finale, et laquelle était juste un brouillon abandonné. J'ai passé presque dix minutes à rouvrir des fils, relire des échanges, essayer de me souvenir quel était mon angle, pourquoi j'avais ouvert une discussion, bref... Dix minutes pour retrouver où j'en étais.

Ce n'est pas un problème de productivité, ni de contexte mais plutôt de mémoire et de continuité.

🤔 De quoi on parle ?

Plus on utilise l'IA au quotidien, plus on accumule de conversations. Et ça se multiplie avec les outils : ChatGPT, Claude, Gemini, Copilot ou des agents qui tournent en parallèle. Chaque conversation est un fil et chaque fil contient des morceaux de raisonnement, des décisions, des explorations, des choses qu'on a écartées.

Le problème, c'est que ces fils ne se parlent pas et ne gardent pas un état du travail en cours. Chaque conversation est un monde clos : on ouvre, on avance, on ferme et quand on revient trois jours plus tard, il faut tout reconstruire...

Les modèles ont fait des progrès là-dessus. ChatGPT a lancé une fonctionnalité de mémoire persistante en 2024 : le modèle retient certaines informations d'une conversation à l'autre. Claude propose des fichiers de contexte projet (CLAUDE.md) qui permettent de maintenir des instructions stables. C'est un début.

Mais ce que ces mémoires captent, c'est du contexte : qui vous êtes, comment vous aimez travailler, de quoi parle ce projet. Ce qu'elles ne captent pas, c'est l'état du travail : où en est le projet, quelles décisions ont été prises et pourquoi, ce qui a été exploré et écarté, ce qui reste à faire.

La nuance est importante. 

  • Le contexte, c'est : "je suis développeuse, je travaille sur tel produit, je préfère les réponses concises".

  • L'état du travail, c'est : "on a testé trois approches la semaine dernière, on a écarté la première parce que le coût était trop élevé, on hésite entre les deux autres, et il reste à valider avec le client".

Le contexte est relativement simple à stocker. L’état du travail est vivant, il change tout le temps, et c'est celui dont on a vraiment besoin quand on rouvre un sujet après quelques jours.

Et "vivant" est le mot clé. Ce dont on a besoin, ce n'est pas d'une photo du projet prise à un instant t. C'est d'une mémoire qui se construit en continu, à mesure que le travail avance : qui sait que la décision de lundi a rendu caduque l'exploration de vendredi dernier, que le brief client a changé entre-temps, que l'option B qu'on avait écartée redevient pertinente depuis qu'on a revu le budget. Une mémoire qui sait distinguer ce qui est encore vrai de ce qui ne l'est plus.

C'est la différence entre une archive et une mémoire. L'archive stocke tout, à plat, sans hiérarchie. La mémoire sait ce qui compte maintenant.

Bien sûr, on pourrait prendre des notes et se forcer à documenter mais le problème de la documentation, c'est qu'elle vieillit dès qu'on l'écrit. Trois jours plus tard, elle ne reflète plus l'état réel. Ce qu'il faudrait, c'est une mémoire qui se maintient à jour avec le travail, pas à côté du travail, et c'est précisément ce que l'IA devrait savoir faire. Or, aujourd'hui, elle ne le fait pas vraiment.

Et le problème s'aggrave avec les agents : quand on lance un agent sur une tâche, il produit lui-même du contexte, un résultat, parfois prend des décisions intermédiaires, explore des pistes. Mais son raisonnement disparaît. On récupère le livrable mais pas le chemin. Si le résultat ne convient pas, on ne sait pas pourquoi il a fait tel choix plutôt qu'un autre. On ne peut pas forcément reprendre à mi-chemin, il faut relancer de zéro.

C'est un paradoxe assez net : l'IA nous permet de faire plus de choses en parallèle, donc on ouvre plus de fils, donc on a plus besoin de mémoire, mais c'est justement cette mémoire qui manque. Plus on délègue, plus on a besoin de savoir où on en est, et moins on le sait.

Ce que ça change concrètement

Pour quelqu'un qui utilise l'IA ponctuellement, le problème est mineur. On pose une question, on obtient une réponse, fin de l'histoire.

Mais dès qu'on commence à travailler avec l'IA sur de multiples conversations ou des projets qui durent, ça change.

On ne peut pas traiter un LLM comme un collaborateur si ce collaborateur oublie tout à chaque début de réunion.

Quelques situations que la plupart des utilisateurs réguliers devraient reconnaître :

  • Reprendre un sujet après quelques jours : on sait qu'on a avancé, mais on ne sait plus exactement où. On passe du temps à relire plutôt qu'à avancer.

  • Retrouver une décision : on se souvient avoir écarté une option, mais plus pourquoi. Était-ce un problème de coût, de faisabilité, un retour client ? Sans la trace du raisonnement, on risque de refaire le même chemin.

  • Coordonner plusieurs fils : on travaille sur un projet dans trois conversations différentes (une pour la stratégie, une pour le code, une pour le contenu). Aucune ne sait ce qui se passe dans les autres.

  • Faire confiance à un agent : un agent a produit quelque chose, mais on ne peut pas retracer son raisonnement. On valide ou on rejette en bloc, sans comprendre les choix intermédiaires.

En fait, on gagne du temps sur l'exécution mais on en perd sur la reconnexion.

Et le problème va plus loin que le confort d'utilisation : sans mémoire du travail, c'est la prise de décision qui se dégrade. On reprend des options qu'on avait déjà écartées. On refait des explorations parce qu'on ne sait plus qu'elles ont déjà eu lieu. On prend une décision un mardi qui contredit celle du jeudi précédent, simplement parce que le raisonnement qui avait mené à la première a disparu.

Et avec les agents, ça devient un problème de responsabilité. Un agent recommande, exécute, produit. Mais si personne ne peut retracer pourquoi il a fait tel choix, comment corriger ? Comment auditer ? Comment savoir si le résultat est fiable ou s'il repose sur des hypothèses qui ne sont plus valides ?

Et là, on parle du niveau individuel, mais à l'échelle d'une équipe (ou pire, d'une organisation), ça se multiplie ! Les décisions prises dans des conversations individuelles ne remontent pas, chacun a son propre contexte, ses propres fils.

L'IA accélère le travail de chacun mais ne crée aucune mémoire commune.

Ce qu'il faudrait, ce n'est probablement pas un meilleur outil de notes ni une base de connaissances de plus mais quelque chose qui n'existe pas encore vraiment : une couche de mémoire, une couche de décision qui se maintient avec le travail. Qui sait ce qui est en cours, ce qui a changé, ce qui a été décidé et pourquoi. Quelque chose qui permette de reprendre n'importe quel sujet en quelques secondes, pas en relisant vingt conversations.

Je vois quelques conversations émerger dans l'écosystème IA, surtout autour du contexte (qui est aussi un irritant), et un peu autour de la mémoire et des décisions mais ce sont surtout des contournements pour l'instant.
Je pense que la decision layer va devenir un vrai sujet. Plus on délègue, plus la couche de décision va manquer.

📌 À retenir

👉 Les LLM savent retenir du contexte (qui vous êtes, vos préférences), mais pas l'état de votre travail (où en est le projet, pourquoi telle décision a été prise). C'est la deuxième partie qui manque le plus.

👉 Plus on utilise l'IA en parallèle, plus on a besoin de mémoire, et moins on en a. C'est le paradoxe central : l'outil qui accélère tout ne retient rien.

👉 Sans mémoire du travail, ce n'est pas juste un problème de productivité, c'est un problème de décision, de traçabilité, et à terme de confiance dans les systèmes auxquels on délègue de plus en plus.

AI TOOLS 🛠️

🎙️ Scrivari : la transcription qui sait qui parle, qui résume et qui peut anonymiser

Full disclosure : je vous présente aujourd’hui un outil que j'ai moi-même créé.

Quand j’ai démarré mon activité d’indépendante il y a bientôt 3 ans, j'ai eu besoin d'un outil de transcription qui fasse plus que transcrire : qui identifie les locuteurs, qui génère un compte rendu, qui puisse m’enregistrer en live et qui puisse anonymiser quand c'est nécessaire. Comme je n'ai pas trouvé exactement ce que je cherchais, je l'ai construit et je l’utilise quasi quotidiennement depuis. Autant vous le partager.

▶️ Ce que ça fait

Scrivari transcrit vos fichiers audio, identifie qui parle quand, génère un compte rendu structuré, détecte les entités nommées (noms, entreprises, lieux) et permet d'anonymiser en un clic. Multilingue, basé sur un modèle Mistral, hébergé en France, conforme RGPD.

Comment l'utiliser

  • Rendez-vous sur https://scrivari.com 

  • Créez votre compte (2h/mois gratuites)

  • Uploadez un fichier audio ou enregistrez directement (micro ou écran)

  • Scrivari transcrit, identifie les locuteurs et génère automatiquement un compte rendu

  • Vous récupérez un compte-rendu, une transcription structurée par intervenant, avec la possibilité de :

    • détecter les entités nommées (noms de personnes, lieux, entreprises),

    • d'anonymiser,

    • d'exporter en TXT, PDF ou DOCX.

Exemple

Upload d’un fichier audio → transcription → génération d’un compte-rendu → affichage du transcript pour lire, modifier, corriger → détection des entités → anonymisation → export.

💡 Utile pour :

  • Enregistrer une réunion en direct et récupérer le compte rendu dans la foulée

  • Transcrire des interviews en gardant la trace de qui a dit quoi

  • Se dicter des notes vocales et obtenir un texte structuré

  • Anonymiser des verbatims clients ou des entretiens RH avant de les partager

  • Traiter des données audio sensibles en restant conforme RGPD (infrastructure 100% France/UE, fichiers audio supprimés après traitement, transcriptions chiffrées)

💡 Points d’attention

  • La détection des locuteurs fonctionne bien quand les voix sont distinctes, mais les chevauchements de parole restent un défi (comme pour tous les outils du marché)

  • La qualité de la transcription dépend toujours de la qualité de l'audio d'entrée

  • Je l’utilise quasi quotidiennement, je fais donc évoluer régulièrement l’outil. N’hésitez pas à me donner vos impressions et feedbacks si vous l’utilisez.

🎯 Résultat : une transcription qui structure qui a dit quoi, génère un CR exploitable et vous laisse anonymiser quand il faut. Le tout en quelques minutes.

🤖 Prompt Hack du moment

🎬 Le prompt qui remplace l'algorithme de Netflix

💡 A quoi ça sert ?

On passe un temps fou à scroller des catalogues pour trouver quelque chose à regarder, lire ou écouter. Les algorithmes des plateformes ne recommandent que dans leur propre catalogue, et ils ne savent pas expliquer pourquoi ils proposent quelque chose. Ce prompt fait l'inverse : il commence par qualifier vos goûts (souvent mieux que vous ne le feriez), puis cherche sans se limiter à une seule plateforme.

🪄 Prompt magique (à copier-coller)

Voici une liste de [séries / films / livres / podcasts] que j'ai adoré(e)s :
- [Titre 1]
- [Titre 2]
- [Titre 3]
- [Titre 4]
- [Titre 5]

Étape 1 : Avant de me recommander quoi que ce soit, analyse cette liste et dis-moi ce que mes choix révèlent sur mes goûts. Quels sont les points communs, les motifs récurrents, ce qui semble me plaire dans la narration, le ton, les thèmes ?

Étape 2 : Propose-moi 5 suggestions que je ne connais probablement pas, en m'expliquant pour chacune pourquoi elle correspond à mon profil.

Contexte : ce soir j'ai envie de [préciser : quelque chose de léger / intense / court / qui fait réfléchir / à regarder à deux...].

💡 Utilisations concrètes

  • Trouver une série quand on a "déjà tout vu" sur Netflix ou autre plateforme de streaming

  • Découvrir des livres hors de sa bulle habituelle (l'IA recommande au-delà d'un seul catalogue)

  • Trouver un podcast sur un sujet précis sans passer par les classements

  • Qualifier ses propres goûts pour mieux comprendre ce qu'on cherche vraiment

🎁 Bonus : ajoutez "ne te limite pas aux titres les plus connus" dans votre prompt. Les LLM ont un biais de popularité : ils recommandent en priorité ce qui revient le plus souvent dans leurs données d'entraînement, c'est-à-dire les titres que tout le monde connaît déjà. Cette simple ligne peut débloquer des suggestions qu'il n'aurait pas "osé" sortir autrement.

🎯 Résultat

Des recommandations agnostiques des plateformes, calibrées sur ce que vous aimez vraiment, pas sur ce qu'un algorithme veut vous vendre.

📩 C’est tout pour aujourd’hui !

💌 N'hésitez pas à partager cette newsletter si elle vous a plu !

✅ Vous pouvez aussi m’écrire en répondant à cet email pour me dire quelle news ou outil vous a marqué dans cette édition !

Cette newsletter est réalisée par une “vraie” personne, avec assistance de l’IA, notamment pour améliorer la fluidité de lecture :)

À bientôt pour plus d’IA en action ! ✨ 

Virginie

Qu’avez-vous pensé de cette édition ?
Vos avis nous sont très précieux !

Inscrivez-vous pour en lire plus

Le contenu de 📰 AI News & Tools est 100% gratuit, abonnez-vous pour continuer.

Already a subscriber?Sign in.Not now