• EssaimIA
  • Posts
  • 🌀 Trois ans et demi de GenAI : on en est où ?

🌀 Trois ans et demi de GenAI : on en est où ?

Les sorties s'enchaînent, les noms se mélangent... Faisons le point sur ce qui s'est passé, ce qui a bougé, et ce qu'on peut en faire maintenant.

SOMMAIRE

📰 AI NEWS
🌀 GenAI : on en est où, trois ans après ?
🏓 Un robot bat des joueurs professionnels de ping-pong, qu’est-ce que ça implique ?
🛠️ Et si n'importe qui pouvait construire son propre outil cet après-midi ?

🛠️ AI TOOL
🎨 Claude Design : de l'idée au visuel sans ouvrir Figma ou PowerPoint

🤖 Prompt Hack
🔍 Forcer l'IA à auditer sa propre réponse

AI NEWS 🗞️

🌀 GenAI : on en est où, trois ans après ?

Depuis novembre 2022, on vit une "petite" révolution avec l'arrivée de la GenAI dans nos vies. 

Au début, on attendait chaque nouveau modèle pour avoir plus performant. Aujourd'hui, ils sont tellement performants qu'on voit à peine la différence... Les sorties s'enchaînent, accompagnées de nouveaux produits et fonctionnalités, à l'image d'Anthropic qui nous submerge depuis un an avec ses agents, ses skills, son Cowork.

Si on regarde en arrière, c'est devenu franchement difficile de s'y retrouver sur la timeline… Et si on faisait une pause pour récap un peu tout ça ?

🤔 De quoi on parle ?

▶️ Fin 2022, c’est l'explosion ChatGPT : OpenAI sort ChatGPT (basé sur GPT-3.5), qui envahit nos vies pro comme perso. C'est l'adoption la plus rapide qu'une technologie ait connue, 1 million d'utilisateurs en cinq jours. Très vite, Microsoft renforce son partenariat avec OpenAI dans un accord pluriannuel de plusieurs milliards de dollars, puis OpenAI enchaîne avec GPT-4 au printemps suivant.

▶️ 2023, Anthropic et Mistral entrent dans la course : pendant qu'OpenAI domine la conversation publique, Anthropic sort Claude 1 puis Claude 2, et Mistral est créé en France au printemps avant de lever 105 millions d'euros en seed (record européen). En fin d'année, c'est l'éviction-réintégration express de Sam Altman en cinq jours chez OpenAI, et la sortie du premier Mistral 7B en open-weights. Côté Anthropic, Amazon y investit 1,25 milliard $.

 

▶️ 2024, multimodal et concurrence sérieuse :

  • Côté Anthropic : sortie de la famille Claude 3 (Haiku, Sonnet, Opus), puis Claude 3.5 Sonnet avec ses Artifacts (l'interface qui affiche le contenu généré à côté du chat), et Computer Use, l'agent qui contrôle un écran. Amazon ajoute 4 milliards.

  • Côté OpenAI : le multimodal débarque avec GPT-4o (texte, image, audio en temps réel) et l'ouverture du GPT Store (les GPTs custom accessibles au grand public), sur fond de départs (Ilya Sutskever, Jan Leike, Mira Murati).

  • Côté Google : sortie dess Gems (équivalent maison des GPTs d’OpenAI) et NotebookLM dont la fonction podcasts devient virale 🎙️.

  • Côté Mistral : Mistral Large + Le Chat + accord Microsoft Azure (qui fait polémique en Europe sur la souveraineté).

  • Modèles chinois : DeepSeek V2 puis V3, qui font paniquer le monde tellement ils sont efficaces pour une fraction du coût des modèles US.

 

▶️ 2025, premier semestre : le choc DeepSeek et la course aux agents :

  • Le moment DeepSeek : R1 sort en open-weights début d'année, Nvidia perd près de 600 milliards de dollars en une journée 🤯 (record absolu de l'histoire boursière). Ce n'est pas seulement une histoire de modèle, c'est une remise en question du récit dominant : toujours plus de GPU, toujours plus cher.

  • Côté politique américaine : Trump annonce Project Stargate à la Maison-Blanche, 500 milliards de dollars d'infrastructure IA aux US (OpenAI, Oracle, SoftBank).

  • Côté OpenAI : Deep Research (l'agent qui parcourt le web 5 à 30 minutes pour produire un rapport sourcé), o3 et o4-mini (raisonnement plus abouti), puis Codex (l'agent codeur dans le cloud qui travaille en parallèle sur plusieurs tâches).

  • Côté Anthropic : Claude 3.7 Sonnet (extended thinking) + Claude Code (l'agent codeur via le terminal), puis Claude 4 (Opus + Sonnet) au printemps.

  • Côté modèles chinois : Qwen 3 (Alibaba) très efficace et en open-weights.

  • Le moment Ghibli : la génération d'images de GPT-4o devient virale au printemps, relance le débat copyright 🎨.

▶️ 2025, second semestre : consolidation produit et virage économique :

  • Côté OpenAI : GPT-5 sort enfin 😅, succès technique mais échec "humain" (beaucoup d'utilisateurs adoraient GPT-4o et se sentent lésés du changement par défaut). Plus tard, OpenAI bascule officiellement en for-profit (Public Benefit Corporation), Microsoft prend 27% du capital.

  • Côté Anthropic : lancement de Skills, ces dossiers d'instructions packagées que Claude charge à la demande pour exécuter des tâches répétables.

  • Côté modèles chinois : Kimi K2 chez Moonshot (1 trillion de paramètres, open-weights).

  • En fin d'année : Gemini 3 chez Google, Opus 4.5 chez Anthropic, Mistral Large 3.

 

▶️ 2026, on en est où ? Fragmentation et recomposition :

  • Côté Anthropic : Claude Cowork en research preview début d'année (l'agent bureau pour les non-codeurs, "Claude Code sans le code"), Opus 4.6 et Sonnet 4.6, puis Claude Design au printemps qui commence à marcher sur le terrain de Figma et Canva. Opus 4.7 sort en tête du classement Arena.

     

    Anthropic devient officiellement une suite d'outils, plus seulement un modèle.

     

  • Côté OpenAI : sortie de l'app Codex desktop. Plus tard, nouveau deal Microsoft : c’est la fin de l'exclusivité, OpenAI peut désormais se faire héberger chez AWS et Google Cloud. Dans la même fenêtre, l'application Sora grand public ferme, signe d'un “refocus” produit.

  • Côté modèles chinois : DeepSeek V4 en preview et Kimi K2 et ses déclinaisons. Les modèles ouverts deviennent impossibles à ignorer sur le coût, le code et les agents.

🧩 Et concrètement, on en est où aujourd'hui ?

On a le choix entre des modèles US, chinois ou européens. Avec des capacités différentes, des performances différentes, et des choix à faire (ou pas) sur la souveraineté et la sécurité des données.

Mais surtout, les modèles ne sont plus l'attendu, c'est ce qu'on fait avec qui compte. Coder, rédiger, brainstormer, planifier, créer du contenu, analyser des documents.

Le niveau d'autonomie a aussi changé : on est passés du chat en mode question-réponse à de la délégation de tâches via des agents (Claude Code, Codex, Operator, Cowork). On a aussi découvert les instructions packagées (GPTs chez OpenAI, Gems chez Google, Skills chez Anthropic), ces dossiers qui permettent de préciser au modèle nos façons de faire sans avoir à le redire à chaque conversation.

Mais maintenant qu’on en est là, la vraie question à mon sens est : parce qu'une IA peut le faire, est-ce qu'il faut s'en servir pour autant ?

On en parlait dans cette édition : utiliser l'IA pose pas mal de questions, et fait peser des risques sur l'avenir de nos compétences et de notre capacité cognitive.

On a entre les mains un outil très puissant, profitons-en pour renforcer une autre capacité tout aussi puissante, et très humaine : notre esprit critique.

📌 À retenir

👉 En trois ans, on est passés d'un modèle américain dominant à quatre écosystèmes (US, chinois, européen, open-weights) aux capacités très proches.

👉 Le moment DeepSeek de janvier 2025 reste un pivot : R1 fait perdre 589 milliards de dollars à Nvidia en une journée, alors qu'il est sorti en open-weights et coûte une fraction de ses concurrents US.

👉 Les modèles convergent en performance, ce qui se déplace, c'est la couche produit (agents, skills, intégrations bureau).

👉 La question utile n'est plus "quel est le meilleur modèle ?" mais "quel modèle pour quoi, et qu'est-ce que je délègue ?".

📎 Sources

🏓 Un robot bat des joueurs professionnels de ping-pong, qu’est-ce que ça implique ?

Le tennis de table était en fait l'exemple qu'on donnait souvent pour illustrer les limites de l'IA physique : trop rapide, trop imprévisible, trop humain.

En avril 2026, Sony AI a publié dans Nature les résultats de son projet Ace : le robot a battu des joueurs professionnels en conditions réelles. 🤖

🤔 De quoi on parle ?

Project Ace est un système robotique autonome développé par Sony AI. En décembre 2025, il a affronté quatre nouveaux joueurs, dont deux de niveau élite et deux professionnels : il a battu les deux élites et un professionnel. En mars 2026, face à trois nouveaux joueurs professionnels, il en a battu au moins un à chaque session.

Ce qui rend ce résultat différent des démonstrations habituelles, c'est qu’il se déroule en conditions réelles, pas en laboratoire contrôlé, et avec des trajectoires variables, un éclairage naturel et des adversaires imprévisibles.

▶️ Ce que le robot fait techniquement : perception en millisecondes via des capteurs d'images "événementiels" (qui détectent le changement de pixel plutôt que de capturer des images complètes), planification et contrôle par apprentissage par renforcement, hardware haute vitesse.

Le système perçoit, décide et agit dans des fenêtres de temps que le cerveau humain ne peut pas consciemment traiter.

▶️ Ce qui reste humain pour l'instant : le niveau du meilleur joueur professionnel testé était encore trop élevé, Ace a perdu contre lui. Ce n'est donc pas "l'IA bat les humains au ping-pong" : c'est "l'IA atteint le niveau compétitif professionnel dans un sport de haute réactivité physique". Ce qui reste un saut significatif. 🏓

🤔 Pourquoi c’est plus important qu’il n’y paraît ?

Le tennis de table n'est pas l'objectif, c'est seuelemnt un terrain de test pour un problème beaucoup plus général : faire fonctionner l'IA dans le monde physique, en temps réel, avec des contraintes qui ne pardonnent pas.

Les applications visées sont industrielles et médicales : des systèmes qui doivent prendre des décisions rapides dans des environnements non contrôlés. Un robot chirurgical qui ajuste son geste en temps réel, un système de tri industriel qui gère des objets imprévus.

Les domaines physiques qu'on pensait hors de portée de l'IA parce que trop rapides ou trop imprévisibles se rétrécissent, et le ping-pong en était l'exemple emblématique.

🚩 Limites de l'étude

▶️ Échantillon très réduit. 4 joueurs en décembre, 3 en mars. Sept joueurs au total, c'est bien pour une démo, peu pour conclure sur le niveau général d'Ace face aux pros. Les variations individuelles (style de jeu, fatigue, jour favorable) pèsent lourd à cette taille.

▶️ "Conditions réelles", oui, mais cadrées. L'environnement reste un terrain de tournoi avec lumière contrôlée. C'est plus exigeant qu'un labo, mais ce n'est pas le bruit du monde réel (un gymnase scolaire, un courant d'air, un public).

▶️ Publication dans Nature, mais signée par les équipes Sony AI elles-mêmes. Pas une analyse externe. Le peer review valide la méthode, pas l'absence de cherry-picking sur les sessions retenues.

📌 À retenir

👉 Un système IA autonome semble atteindre le niveau compétitif professionnel dans un sport physique à haute réactivité, en conditions de tournoi (avec les réserves d'échantillon évoquées).

👉 Le ping-pong était précisément l'exemple qu'on donnait comme hors de portée de l'IA. Les domaines qu'on pensait "trop humains" pour l'IA se rétrécissent.

👉 L'intérêt de cette recherche n'est pas le sport, mais la démonstration que perception ultra-rapide, décision en temps réel et action physique précise peuvent être combinées dans un système autonome. Les applications industrielles et médicales sont le vrai horizon.

📎 Sources

🛠️ Et si n'importe qui pouvait construire son propre outil cet après-midi ?

Dans l'édition précédente, on parlait de l'addiction à créer des produits avec l'IA, cette boucle de récompense qui pousse à ne jamais décrocher parce que c'est fluide, rapide, et que voir quelque chose prendre forme procure une satisfaction immédiate. Je code depuis une vingtaine d'années donc ce n'est pas la création qui est nouvelle pour moi, mais la vitesse ..! Et surtout ce que cette vitesse rend possible pour des gens qui ne savent pas coder du tout.

Il y a un mot pour ça : le vibe coding. ✨

🤔 De quoi on parle ?

Le terme vient d'Andrej Karpathy, chercheur à l'origine de systèmes d'apprentissage chez Tesla et ex-OpenAI, qui a décrit sur X sa façon de coder le week-end : décrire ce qu'il voulait en langage naturel, laisser l'IA générer le code, ajuster, recommencer. Travailler "à l'instinct", sans chercher la documentation, sans se préoccuper de la syntaxe.

Collins English Dictionary en a fait son mot de l'année 2025 et 92% des développeurs américains disent en avoir adopté une forme aujourd'hui (chiffre Microsoft, à lire avec une pincée de sel : la définition de "adoption" reste floue, et une copie de code ChatGPT compte sans doute autant qu'une utilisation quotidienne de Cursor).

Mais le "vibe coding" ne désigne pas une seule chose et au fil du temps, ça a pu se confondre.

Faisons un point :

  • Niveau entrée (Lovable, Replit, Bolt) : on décrit un produit fini ("je veux une app de réservation avec telle et telle fonctionnalité"), l'outil génère un projet complet, déployable. On pilote au niveau du produit.

  • Niveau intermédiaire (artefacts Claude, ChatGPT, Gemini) : on demande un morceau fonctionnel précis : un script, un tableau de bord, une analyse. Ce n'est pas un produit, c'est un outil qu'on intègre dans son propre flux de travail. On pilote au niveau de la tâche.

  • Niveau avancé (Cursor, Claude Code) : on travaille à l'intérieur d'un projet existant, l'IA comprend le contexte du code, suggère et modifie en temps réel. On pilote au niveau du code, dans un environnement de développeur.

Ce qui a changé, c'est que les deux premiers niveaux sont maintenant accessibles sans barrière technique réelle.

🧩 Ce que ça permet concrètement

▶️ ça permet de construire exactement ce dont on a besoin ! Le problème avec les outils SaaS du marché, c'est qu'ils sont faits pour “tout le monde”, donc rarement faits pour vous et vos besoins spécifiquement. Un outil construit sur mesure correspond exactement à votre propre workflow, vos propres données, vos propres contraintes. Pas de fonctionnalités inutiles, pas d'abonnement pour des choses qu'on n'utilisera jamais. Si vous ne trouvez pas l’outil pour vous, construisez le.

▶️ Prototyper en heures, pas en semaines. Les gains de vitesse rapportés sont de 3 à 5 fois plus rapides sur le prototypage. Une idée peut être testée dans la journée, pas soumise à un cycle de développement de plusieurs semaines.

▶️ Réduire la dépendance aux prestataires. Pour des petites structures, des indépendants ou des équipes sans développeurs dédiés, le vibe coding ouvre un espace de création. Jusque là, ces structures devaient mandaté une agence ou un développeur et y allouer un certain budget.

ça devient si rapide et parfois presque si "magique" que l'article d'Harvard (avril 2026) pose cette question :

Si n'importe qui peut réaliser une idée sans passer par une équipe technique, qu'est-ce que "savoir faire" veut encore dire ? 🤔

👀 Sur le terrain

Dans mon activité d'accompagnement, je vois ce changement de façon très concrète. Des dirigeants qui n'avaient jamais ouvert un éditeur de code créent maintenant leurs propres pages, leurs propres artefacts, leurs propres outils internes. Pas pour remplacer leur équipe tech, mais pour ne plus attendre, pour tester une idée le jour même plutôt que de la mettre dans un backlog.

Le profil qui a le plus changé de posture, à mon sens, c'est le Product Manager. Les PMs ont souvent vécu avec une frustration structurelle : ils définissent le produit, ils arbitrent, ils priorisent, mais ils ne peuvent pas toucher à ce qu'ils imaginent. Ils dépendent d'un cycle de dev pour voir si une idée tient la route. Le vibe coding leur donne quelque chose qu'ils n'avaient pas : la capacité de prototyper "en vrai", pas sur un Figma ou un Notion, mais dans un outil qui répond, qui clique, qui ressemble à ce que ça sera. Mais cela ouvre aussi la voie à plus de risques.

⚠️ Ce que le vibe coding ne remplace pas

▶️ La sécurité. C'est le problème le plus documenté : jusqu'à 45% du code généré par IA contiendrait des vulnérabilités de sécurité selon plusieurs audits (Veracode et BaxBench notamment). Le chiffre exact dépend du langage, du type de tâche et de l'auditeur, donc à prendre comme un ordre de grandeur, pas comme une mesure unique.

Un prototype qui fonctionne en local peut exposer des données dès qu'on le met en production sans revue sérieuse. Tout ce qui touche des données sensibles ou des utilisateurs réels demande une validation par quelqu'un qui comprend ce que le code fait vraiment.

Le bon réflexe n’est donc pas “ne pas utiliser”, mais “ne pas mettre en production sans revue”.

▶️ La robustesse à l'échelle. Il y a une différence nette entre "ça marche en démo" et "ça tient quand 1 000 personnes l'utilisent simultanément avec de vraies données". Les bugs qui n'apparaissent qu'en production, la gestion des cas limites, l'optimisation des performances : c'est encore le territoire du développement rigoureux.

▶️ La compréhension de ce qu'on a construit. Quand quelque chose casse, si on n'a aucune idée de comment ça fonctionne, on ne peut pas diagnostiquer. On peut relancer l'IA et espérer, mais on perd le contrôle sur ce qu'on a produit.

Ce que le vibe coding ne remplace pas, c'est la pensée structurée derrière un système : décider quoi construire, pour qui, avec quelles contraintes, dans quel ordre de priorité. Ce travail-là reste humain.

🧩 Par où commencer si vous voulez tester ?

  • Lovable ou Replit si vous voulez construire une app ou un site sans toucher au code : vous décrivez, l'outil génère, vous ajustez.

  • Les artefacts Claude si vous voulez automatiser quelque chose de précis (un tableau de bord, une analyse, un outil interne léger) : commencez par décrire le problème concrètement (pas la solution technique).

  • Cursor, Claude Code, Codex : si vous avez déjà des bases en développement et que vous voulez accélérer sur un projet existant.

Dans tous les cas, commencer petit : un outil qui fait une seule chose, pour soi seul, sans données sensibles. C'est le meilleur terrain d'apprentissage.

🤔 Et le marché du SaaS alors ?

Si demain tout le monde peut construire ses propres outils pour ses propres besoins précis, qu'est-ce qui arrive au marché du SaaS ?

On ne sait pas encore mais quelques signaux commencent à apparaître : les outils très génériques (ceux qui font "un peu de tout pour tout le monde") sont peut-être les plus exposés. À l'inverse, les outils qui résolvent des problèmes complexes, qui demandent une vraie expertise métier pour être construits correctement, qui gèrent des données à grande échelle ou dans des environnements réglementés ont probablement encore beaucoup de chemin devant eux.

Ce n'est peut-être pas la fin du logiciel, mais celle du logiciel qu'on utilise "faute de mieux".

📌 À retenir

👉 Le vibe coding n'est pas une seule chose : c'est un spectre qui va de "créer un site sans toucher au code" à "développer avec une IA qui complète votre code en temps réel". Le premier niveau est accessible à n'importe qui aujourd'hui.

👉 Ce qui change n'est pas tant la technique que l'accès : construire quelque chose de précisément adapté à son besoin n'est plus réservé à ceux qui savent coder ou à ceux qui ont le budget pour le faire faire.

👉 Attention aux limites ! Sécurité (les chiffres "45% de code vulnérable" sont à lire comme un ordre de grandeur, pas une mesure unique), robustesse, compréhension de ce qu'on a construit. Le vibe coding ne supprime pas le besoin de jugement, on passe simplement de "comment coder" à "quoi construire et pourquoi".

👉 Si on peut construire exactement l'outil dont on a besoin en quelques heures, la question "pourquoi payer un abonnement pour 80% de fonctionnalités inutiles" pourrait se poser de plus en plus souvent.

📎 Sources

AI TOOLS 🛠️

🎨 Claude Design : de l'idée au visuel sans ouvrir Figma ou PowerPoint

J'accompagne régulièrement des fondateurs et des équipes produit qui ont une idée claire mais pas de designer sous la main. Le temps entre "j'ai une idée" et "j'ai quelque chose à montrer" était jusqu'ici une vraie friction.

Claude Design, sorti le 17 avril, réduit cette friction à quelques minutes.

▶️ Ce que ça fait : transformer un prompt en prototype visuel, slide, one-pager ou maquette, directement dans Claude.

Comment l'utiliser :

  • Décrivez ce que vous voulez créer (une page d'accueil pour X, un deck de présentation sur Y, un wireframe de Z)

  • Claude construit un design system à partir de vos fichiers existants si vous en avez (couleurs, typographie, composants)

  • Exportez en PDF, URL partageable, PPTX ou envoyez directement dans Canva pour retouches collaboratives

  • Si vous voulez passer au code, le design peut être transféré directement à Claude Code !

💡 Utile pour :

  • Founders et PMs qui veulent montrer une idée sans attendre un designer

  • Pitches et one-pagers à produire rapidement

  • Premiers wireframes d'une feature à valider en équipe

  • Supports de présentation client quand on n'a pas le temps de faire du beau depuis zéro

⚠️ Limites :

  • Les exports restent des points de départ. Pour un rendu final professionnel, un passage par Figma ou un designer peut rester nécessaire

  • Le design system automatique fonctionne mieux si vous avez des fichiers de référence à lui donner. Sans contexte, les choix visuels restent génériques (le contexte reste clé dans la majorité des interactions avec les LLM).

🎯 Résultat : de l'idée à quelque chose de montrable en quelques minutes, sans compétence design requise.

🔗 Accès : claude.ai (disponible dans Claude Pro, Max, Team et Enterprise)

🤖 Prompt Hack du moment

🔍 Forcer l'IA à auditer sa propre réponse

💡 Pourquoi c'est utile ?

On fait confiance aux réponses IA parce qu'elles sont fluides, bien rédigées et semblent sûres d'elles. Mais un texte confiant n'est pas un texte fiable. Ce prompt force le modèle à exposer ce qu'il sait moins bien, les hypothèses implicites qu'il a faites et les endroits où vous devriez vérifier par vous-même avant d'agir.

 

🪄 Prompt magique (à copier-coller) :

Tu viens de me donner une réponse. Avant que j'agisse dessus, j'ai besoin que tu l'audites toi-même en répondant à ces trois questions :

1. Quelles sont les hypothèses implicites que tu as faites pour produire cette réponse ? (données supposées, contexte supposé, etc.)
2. Sur quels points es-tu le moins certain ? Evalue ton niveau de confiance de 1 à 5 pour chacun.
3. Qu'est-ce que tu me recommanderais de vérifier par moi-même ou auprès d'une source externe avant d'utiliser cette réponse ?

Sois direct et précis. Si ta réponse était fiable à 100% sur tous les points, dis-le aussi.

 

💡 Utilisations concrètes :

  • Avant d'utiliser une analyse IA pour une décision importante (recrutement, stratégie, investissement)

  • Quand une réponse vous semble trop parfaite ou trop alignée avec ce que vous vouliez entendre

  • Pour former une équipe à développer un regard critique sur les outputs IA plutôt que de les accepter par défaut

🎯 Résultat : une réponse IA plus utile, avec une carte des zones de risque intégrée.

 

🎁 Bonus vibe coding : "Le brief avant de construire quoi que ce soit" 

Puisqu’on a parlé de vibe-coding dans cette édition, avant de demander à l'IA de créer quoi que ce soit (artefact, app, script), on peut lui faire structurer le besoin d'abord :

Avant de construire quoi que ce soit, aide-moi à clarifier ce que je veux vraiment. Pose-moi 5 questions sur :

1. Le problème concret que j'essaie de résoudre (pas la solution technique)
2. Qui va utiliser ce que tu vas créer (moi seul ? une équipe ? des clients ?)
3. Ce qui existe déjà et pourquoi ça ne suffit pas
4. Ce que "ça marche" veut dire concrètement (quel résultat visible ?)
5. Les contraintes que je n'ai peut-être pas mentionnées (données sensibles, volume, accès)

Pose les questions une par une. Ne commence à construire qu'après mes réponses.

Enjoy ! 🔥 

📩 C’est tout pour aujourd’hui !

💌 N'hésitez pas à partager cette newsletter si elle vous a plu !

✅ Vous pouvez aussi m’écrire en répondant à cet email pour me dire quelle news ou outil vous a marqué dans cette édition !

Cette newsletter est réalisée par une “vraie” personne, avec assistance de l’IA, notamment pour améliorer la fluidité de lecture :)

À bientôt pour plus d’IA en action ! ✨ 

Virginie

Qu’avez-vous pensé de cette édition ?
Vos avis nous sont très précieux !

Inscrivez-vous pour en lire plus

Le contenu de 📰 AI News & Tools est 100% gratuit, abonnez-vous pour continuer.

Already a subscriber?Sign in.Not now