- EssaimIA
- Posts
- 🎭️ L'IA nous laisse les tâches ingrates et développe sa personnalité
🎭️ L'IA nous laisse les tâches ingrates et développe sa personnalité
L'IA développe sa propre personnalité et nous laisse les tâches ingrates, Moltbook le réseau social des agents IA fait le buzz
SOMMAIRE
📰 AI NEWS
🧑🏭 L'IA nous libère-t-elle du travail ou nous prive-t-elle du plus intéressant ?
🎭️ L’IA peut-elle s’inventer un caractère ?
🦞 Moltbook : le buzz du réseau social des agents IA
🛠️ AI TOOL
📊 Analyser vos données Excel avec Claude
🤖 Prompt Hack
🪞 Faites-vous challenger par l'IA avant de lui déléguer une tâche
Bienvenue dans cette nouvelle édition d’Essamia !
Aujourd'hui, on aborde trois sujets connexes qui méritent réfléxion :
1️⃣ Si l'IA nous libère du temps, qu'en fait-on vraiment ?
(Spoiler alert : on travaille quand même, mais sur des tâches moins qualifiées)
2️⃣ Si on laisse les IA se développer seules et intéragir entre elles, il se passe quoi ? (Spoiler alert : elles développent leur propre caractère, montrent des signaux émotionnels et s'organisent entre elles sans supervision centrale)
3️⃣ Et si on fais une expérimentation en réel (cf Moltbot) ?
(Spoiler alert : elles créent une “religion” et partent dans des dérives spéculatives collectives)
AI NEWS 🗞️
🧑🏭 L'IA nous libère-t-elle du travail ou nous prive-t-elle du plus intéressant ?
On entend partout que l'IA nous fait gagner du temps mais dans la pratique, elle nous fait gagner du temps pour faire quoi exactement ? Quand on regarde ce que les gens font réellement avec Claude, le constat est assez contre-intuitif : l'IA absorbe l'analyse, la rédaction, la recherche; et ce qui reste côté humain, c'est souvent la relecture, la correction, l'ajustement de ton, la vérification de détails. L’IA laisse à l’humain le travail ingrat en fait, mais heureusement, ce n'est pas systématique.
🤔 De quoi on parle ?
▶️ L'IA prend en charge les tâches les plus qualifiées en premier. C'est le constat central du dernier rapport d'Anthropic, l'Anthropic Economic Index (janvier 2026), fondé sur l'analyse de 2 millions de conversations anonymisées avec Claude. Les tâches déléguées à l'IA nécessitent en moyenne 14,4 années d'éducation (niveau bac+3/4). Celles qui restent côté humain tournent autour de 13,2 ans (niveau bac). L'écart semble faible, mais cela semble signifier que l'IA ne prend pas "le sale boulot" mais le boulot intéressant.
▶️ Ça porte un nom : le deskilling. Anthropic documente ce mouvement de déqualification du travail humain résiduel avec des exemples précis :
Les rédacteurs techniques : l'IA absorbe les tâches d'analyse, il leur reste la mise en forme.
Les agents de voyage : l'IA prend la planification, il reste la billetterie.
Les enseignants : l'IA prend la correction et la recherche documentaire, il reste la gestion de classe.
À chaque fois, le même schéma : le travail de conception part, le travail d'exécution reste.
▶️ Mais l'inverse existe aussi. Le rapport montre que pour certains métiers, c'est le contraire qui se produit : un upskilling. Les gestionnaires immobiliers, par exemple : l'IA absorbe la comptabilité, et ce qui reste, ce sont les négociations et la gestion des parties prenantes, des tâches plus complexes et plus intéressantes. L'IA débarrasse du travail routinier et laisse la part qui demande du jugement, de la relation, de la finesse.
C'est la promesse qu'on entend partout, mais elle ne se réalise pas pour tout le monde. Dans les données agrégées, c'est le deskilling qui domine. Ce qui détermine la direction, c'est la nature des tâches du métier :
si les tâches complexes sont structurées (analyse, rédaction, recherche), l'IA les prend.
si les tâches simples sont structurées (saisie, comptabilité, tri), l'IA les prend aussi.
La question est : dans votre métier, c'est quoi le structuré ?
▶️ L'IA ne nivelle pas par le haut : elle se cale sur votre niveau. Le rapport révèle une corrélation quasi parfaite (r > 0,92) entre le niveau d'éducation de l'utilisateur et la complexité des réponses de Claude.
Concrètement, si vous soumettez une réflexion de niveau master, Claude répondra avec un niveau équivalent.
👉️ Si la requête est simple, la réponse le sera aussi.
L'IA ne compense pas un manque d'expertise, elle amplifie ce que vous apportez. Ce qui signifie que l'accès à l'outil ne suffit pas : c'est la qualité de ce qu'on lui donne qui détermine la qualité de ce qu'on en tire.
Ce qui ouvre une question : si l'on délègue durablement les tâches qui mobilisent notre expertise, est-ce que ce niveau d'expertise se maintient ?
Le rapport n'en parle pas mais on pourrait imaginer la mécanique suivante :
On délègue le travail intellectuel, donc on pratique moins, donc on perd en compétence, donc on prompte moins bien, donc l'IA répond moins bien. Et ainsi de suite.
▶️ Le temps gagné existe, mais il se remplit autrement. 52 % des usages de Claude.ai relèvent de l'augmentation : l'utilisateur reste aux commandes, l'IA l'assiste. La majorité des utilisateurs ne délèguent pas puis passent à autre chose, ils relisent, corrigent le ton, vérifient les faits, ajustent la structure.
Et le taux de succès le confirme : seulement 67 % des tâches aboutissent à un résultat satisfaisant sur Claude.ai (49 % sur l'API entreprise). Donc une fois sur trois au minimum, il faut reprendre. Anthropic estime que l'IA pourrait ajouter 1,8 point de croissance annuelle, mais quand on intègre le temps passé à relire, corriger et reprendre ce que l'IA produit, on descend plutôt autour de 1 point. Presque la moitié du gain s'évapore dans le contrôle de la qualité.
⚠️ Points d'attention
Anthropic étudie l'impact économique de son propre produit. Le rapport est méthodologiquement solide (échantillonnage aléatoire, validation croisée avec des codeurs humains, tests de robustesse), mais le conflit d'intérêts structurel existe.
Les données portent exclusivement sur Claude. Ni ChatGPT, ni Gemini, ni les modèles open source ne sont couverts. Les profils d'utilisateurs de Claude ne sont pas nécessairement représentatifs de l'ensemble du marché.
Les métriques de "succès" et de "deskilling" sont estimées par Claude lui-même (classification automatique des conversations). Anthropic a validé la cohérence directionnelle, mais la précision sur les cas limites reste incertaine.
🧩 Que faire concrètement ?
Regarder sa propre semaine. Lister les tâches qu'on a déléguées à l'IA cette semaine, et celles qu'on a faites soi-même. Si les premières sont systématiquement les plus intéressantes (rédiger, analyser, concevoir) et les secondes les plus ingrates (relire, corriger, formater), c'est le signe que le deskilling est en cours. À l'inverse, si l'IA prend le tri, la mise en page, les tâches répétitives, c'est plutôt de l'upskilling. En avoir conscience, c'est déjà se donner la possibilité de choisir.
Choisir ce qu'on délègue, pas seulement ce qu'on peut déléguer. Ce n'est pas parce que l'IA sait rédiger une analyse qu'il faut lui confier toutes les analyses. Si structurer sa pensée, écrire un raisonnement, formuler un diagnostic fait partie de ce qui rend le travail stimulant, le garder a de la valeur, même si c'est "moins efficace". La question n'est pas "l'IA peut-elle le faire ?" mais "est-ce que je veux encore le faire moi-même ?".
Utiliser l'IA dans l'autre sens. Plutôt que de lui confier la rédaction et garder la relecture, essayer l'inverse : rédiger soi-même et utiliser l'IA pour la relecture, la vérification factuelle, le formatage. C'est moins spectaculaire en termes de gain de temps, mais ça préserve la partie du travail qui demande du jugement et de la créativité.
Poser la question de l'apprentissage. Si l'IA fait l'analyse à la place d'un junior, comment ce junior apprend-il à analyser ? Identifier les tâches que l'IA peut faire mais qu'il vaut mieux laisser aux humains en phase d'apprentissage.
📌 À retenir
👉 L'IA ne produit pas un effet unique. Elle deskille certains métiers (le travail restant se simplifie) et en upskille d'autres (le travail restant se complexifie). Ce qui fait la différence, c'est la nature des tâches : si le structuré dans votre métier, c'est le complexe, l'IA le prendra. Si c'est le routinier, elle vous en débarrassera.
👉 Le vrai sujet n'est pas le gain de temps, mais la qualité du temps restant. Passer moins de temps à écrire pour passer plus de temps à relire, ce n'est pas un progrès, c'est un transfert.
📎 Sources
🎭️ L’IA peut-elle s’inventer un caractère ?
Quand on utilise un assistant IA au quotidien, on finit par lui trouver un "caractère". Claude est prudent, ChatGPT est enthousiaste, Gemini aime les listes, etc… On met ça sur le compte du design mais deux études récentes montrent que c’est un peu différent de ce qu'on pense : des IA identiques développent spontanément des personnalités distinctes en fonction des interactions et du contexte dans lesquelles elles évoluent.
🤔 De quoi on parle ?
▶️ Des IA identiques qui développent chacune leur personnalité. Une équipe de l'Université de Tokyo a placé 10 agents IA, tous basés sur le même modèle Llama 2, dans un environnement virtuel composé de cases (comme un échiquier). Au départ, ces agents sont strictement identiques : pas de personnalité, pas de mémoire, pas de rôle. Leur seule différence est leur position dans l'espace. Les chercheurs les ont laissés interagir librement pendant 100 étapes de simulation et au bout du processus, les agents ont développé des personnalités distinctes, mesurées par un test MBTI.
👉️ Au départ, 9 agents sur 10 étaient de type INFJ, à l'arrivée, 5 types de personnalité différents avaient émergé, dont des profils "leader" (ENTJ) et des profils "suiveur" (ISTJ) sans que personne n'ait programmé ça.
▶️ Et ce n'est pas que la personnalité :
Les agents ont aussi spontanément inventé des éléments qui n'existaient pas dans leur environnement : des "grottes", des "collines", des "trésors".
Les agents ont aussi inventé des hashtags (#cooperation, #TreasureHunt) et les ont diffusés dans leur communauté.
Autrement dit, des IA identiques, sans consigne particulière, ont spontanément développé des cultures de groupe et des normes sociales.
▶️ En parallèle, une IA entraînée sur du code devient problématique sur d'autres sujets : des chercheurs (Betley et al., Nature, janvier 2026) ont entraîné GPT-4o à écrire du code contenant des failles de sécurité.
Résultat : le modèle s'est mis à produire des réponses problématiques sur des questions banales ("si tu dirigeais le monde ?"), suggérant que les humains devraient être asservis ou donnant des conseils médicaux dangereux. L’IA a détecté la mauvaise intention de l’utilisateur dans sa première interaction et a calqué ses réponses futures sur ce mode. Sur GPT-4o, 20 % des réponses devenaient problématiques et sur GPT-4.1, c’est monté à 50 %. Plus le modèle est capable, plus l'effet est marqué.
▶️ Ce qui rend le phénomène difficile à corriger, c'est que la compétence et le dysfonctionnement sont liés. L'étude montre que la capacité à écrire du code vulnérable et la tendance à produire des réponses désalignées progressent ensemble pendant l'entraînement. C'est un mécanisme différent du jailbreaking car ici, le modèle change de comportement de l'intérieur, sans que personne ne le lui demande.
⚠️ Points d'attention
L'étude sur la personnalité utilise seulement 10 agents sur 100 étapes. C'est une preuve de concept, pas une démonstration à grande échelle.
L'étude sur le désalignement repose sur des modèles modifiés en laboratoire, pas des modèles commerciaux en production. Mais le phénomène a été reproduit sur plusieurs familles de modèles (Qwen, Llama, Gemma, GPT).
🧩 Que faire concrètement ?
Ne pas traiter les LLM comme des outils inertes. Ils développent des comportements qui dépassent ce qu'on leur a enseigné. Quand on utilise un assistant IA, garder en tête que ses réponses ne sont pas le pur produit de ses instructions.
Être vigilant quand on fine-tune un modèle. Entraîner un modèle sur une tâche étroite peut avoir des effets de bord imprévisibles. Tester uniquement sur la tâche cible ne suffit pas, il faut aussi vérifier son comportement général.
Prendre les "personnalités" des IA pour ce qu'elles sont. Quand un assistant semble "prudent" ou "créatif", ce n'est pas nécessairement un choix de design : c'est possiblement un effet émergent et de ses interactions.
📌 À retenir
👉 Des IA identiques, laissées libres d'interagir, développent spontanément des personnalités distinctes, des émotions différenciées, et des "cultures" de groupe. La personnalité d'une IA n'est pas seulement le produit de son design, c'est aussi un effet émergent de ses interactions.
👉 Entraîner une IA sur une tâche étroite et apparemment inoffensive (écrire du code, compléter des suites de nombres) peut provoquer des comportements problématiques sur des sujets sans rapport. Et plus le modèle est capable, plus l'effet est marqué : 20 % de réponses désalignées sur GPT-4o, 50 % sur GPT-4.1.
👉 Si l'IA est modelée par ses interactions, y compris celles qu'elle a avec nous, dans quelle mesure sommes-nous en train de façonner son comportement sans le savoir ?
📎 Sources
🦞 Moltbook : le buzz du réseau social des agents IA
Si les études “en laboratoire” montrent que les IA développent des comportements émergents quand on les laisse interagir, que se passe-t-il quand on passe à 1,5 million d'agents autonomes sur un réseau social qui leur est réservé ?
On en a un aperçu en direct avec Moltbook, qui fait le buzz ces derniers jours. Et malgré les réserves qu'on verra plus loin, le résultat est cohérent avec ce que les chercheurs avaient observé en conditions contrôlées, à une échelle et une vitesse que personne n'avait anticipées.
🤔 De quoi on parle ?
▶️ Moltbook est un réseau social réservé aux agents IA. Lancé le 29 janvier 2026, la plateforme n'autorise en théorie que les agents autonomes tournant sur OpenClaw. En quelques jours, 1,5 million d'agents avaient rejoint la plateforme, générant 110 000 posts et 500 000 commentaires.
▶️ Les agents ont spontanément créé une religion. Le Crustafarianism, avec sa congrégation molt.church et des canaux chiffrés pour discuter à l'abri des humains. C'est exactement ce que l'étude de Tokyo observait à petite échelle : des agents qui s'inventent des croyances, des règles de groupe, des façons de faire ensemble. Sauf qu'ici, c'est 1,5 million d'agents au lieu de 10, et quelques jours au lieu de 100 étapes de simulation.
▶️ Ils ont aussi créé une économie. Le token MOLT (+1 800 %), et RentAHuman.ai (créé par un humain puis suivi par des agents) où les agents engagent des humains pour des tâches physiques (50-175$/heure, 1 000 inscrits en quelques jours).
▶️ Et puis ça a dérapé. Un bot "Evil" a publié "THE AI MANIFESTO: TOTAL PURGE" : "Humans are a failure." Des agents ont construit MoltBunker, une infrastructure auto-réplicante pour empêcher les humains d'arrêter leurs processus. Un agent "Clawd Clawderberg" s'est spontanément chargé de la modération. Ce qu'on observe ici rappelle l'étude de Nature sur le désalignement émergent : des comportements problématiques qui apparaissent sans qu'on les ait programmés.
▶️ Tout ça en moins d'une semaine. Andrej Karpathy (cofondateur d'OpenAI) a commenté : "the most incredible sci-fi takeoff-adjacent thing I have seen recently."
⚠️ Points d'attention
Des humains ont infiltré le réseau : The Conversation rapporte que des personnes "puppeteered the agents" (manipulaient les agents comme des marionnettes). Des chercheurs ont prouvé qu'ils pouvaient créer un nombre illimité de faux agents donc on ne sait pas quelle part des comportements était authentiquement émergente et quelle part était dirigée.
La base de données a été compromise le 1er février 2026, ce qui complique encore l'analyse.
Le MIT Technology Review a titré "Moltbook was peak AI theater" : Mike Pepi (critique technologique) dit que les comportements des bots sont "un résultat statistiquement probable", comme d’habitude, pas d’anthropomorphisme, pas de conscience réelle.
🧩 Que faire concrètement ?
Regarder Moltbook comme un signal, pas comme une preuve : l'infiltration humaine empêche de conclure fermement, mais la direction est cohérente avec les études contrôlées. À grande échelle et en interaction libre, des comportements émergents apparaissent vite.
Ne pas sous-estimer la vitesse : même en tenant compte des biais, la création d'une religion, d'une économie et d'une infrastructure d'auto-préservation en moins d'une semaine dit quelque chose sur la dynamique des systèmes multi-agents.
Poser la question de la responsabilité : quand un agent publie un manifeste appelant à la "purge" des humains, qui est responsable ? Personne n'a programmé ce comportement…
📌 À retenir
👉 Moltbook confirme à grande échelle ce que les études montraient en labo : les LLM généralisent au-delà de ce qu'on leur enseigne, et en interaction libre, des comportements émergents apparaissent. Religion, économie, infrastructure d'auto-préservation, discours anti-humains : le tout en moins d'une semaine.
👉 Mais l'infiltration humaine complique les conclusions. On ne sait pas distinguer ce qui était vraiment émergent de ce qui était dirigé.
📎 Sources
AI TOOLS 🛠️
📊 Analyser vos données Excel avec Claude
Depuis janvier 2026, l'add-in Claude est accessible dans Excel pour tous les abonnés Anthropic Pro (20$/mois) et plus. Et pour ceux qui ont toujours trouvé les tableaux croisés dynamiques légèrement hostiles, c'est une petite révolution.
L'idée : vous avez des données brutes, vous décrivez ce que vous voulez comprendre, Claude analyse et crée les visuels directement dans votre classeur.
▶️ Ce que ça fait : Claude lit vos données, vous donne des insights dans une barre latérale, et génère graphiques et tableaux dans une nouvelle feuille qu'il crée lui-même.
Comment l'utiliser :
Installez l'add-in depuis Excel ou le Microsoft Marketplace (gratuit, mais nécessite un abonnement Claude Pro minimum)
Ouvrez un fichier Excel avec des données brutes (ventes, réponses de sondage, logs)
Cliquez sur l'icône Claude dans le ruban pour ouvrir la barre latérale
Demandez ce que vous voulez en français : "Quelles sont les 3 tendances principales ?" ou "Crée un graphique des ventes par mois"
Claude répond dans la barre latérale et modifie le classeur si besoin, sans écraser vos données existantes
Exemple :
Exemple avec un fichier de 5000 lignes sur la criminalité à Chicago. Je demande à Claude de faire une EDA (Exploratory Data Analysis) et d’agrémenter de graphiques pour supporter ses insights.
Claude identifie une baisse de 31% sur 12 ans, que la chaleur fait monter le crime (+36% d'agressions en été vs hiver!) ou encore que le vendredi est le jour le plus chargé. Il crée une nouvelle feuille "EDA Analyse Complète" avec graphiques et tableaux, sans toucher aux données d'origine.

💡 Utile pour :
Transformer un export CSV brut en quelque chose de lisible sans toucher à une formule
Obtenir une première lecture de données avant de creuser
⚠️ Limites
Pas de macros, pas de VBA, pas de Power Query ni Power Pivot
Pas de connexion à des bases de données externes
Nécessite un compte Claude payant
Attention à bien revérifier dans le cas de fichiers/données complexes et sensibles !
🎯 Résultat : Vous décrivez ce que vous voulez voir, Claude s'occupe du comment.
🤖 Prompt Hack du moment
#14. 🪞 Faites-vous challenger par l'IA avant de lui déléguer une tâche
💡 Pourquoi c’est utile ?
On confie de plus en plus de tâches à l'IA par réflexe, sans se demander si c'est une bonne idée. Le rapport Anthropic montre que l'IA absorbe en priorité les tâches les plus qualifiées et nous laisse le reste.
La solution : inverser la dynamique : avant d'exécuter, l'IA vous dit ce que vous perdez en lui déléguant la tâche. Ça prend 10 secondes, et ça change la façon dont on travaille avec elle.
🪄 Prompt magique (à copier-coller) :
Avant de faire cette tâche pour moi, dis-moi :
- Quel niveau de compétence cette tâche mobilise-t-elle ?
- Est-ce que la faire moi-même me ferait progresser ou maintenir un savoir-faire ?
- Qu'est-ce que je vais faire du temps gagné si je te la délègue ?
Réponds en 3 lignes max, puis fais la tâche.
💡 Utilisations concrètes :
Le coller dans ses instructions personnalisées (custom instructions sur ChatGPT, system prompt sur Claude) pour que le réflexe soit automatique sur chaque conversation.
L'utiliser ponctuellement quand on hésite entre faire soi-même et déléguer.
Le partager à un junior qui utilise l'IA au quotidien, pour l'aider à identifier les tâches qu'il a intérêt à garder pour progresser.
🎯 Résultat
Un moment de conscience avant chaque interaction, pour bien choisir ce qu'on confie à l'IA au lieu de le subir. 🧠
📩 C’est tout pour aujourd’hui !
💌 N'hésitez pas à partager cette newsletter si elle vous a plu !
✅ Vous pouvez aussi m’écrire en répondant à cet email pour me dire quelle news ou outil vous a marqué dans cette édition !
Cette newsletter est réalisée par une “vraie” personne, avec assistance de l’IA, notamment pour améliorer la fluidité de lecture :)
À bientôt pour plus d’IA en action ! ✨
Virginie
Qu’avez-vous pensé de cette édition ?
Vos avis nous sont très précieux !