Publication du 09 novembre 2025
Edition n°29
Il y avait l’embarras du choix cette semaine.
Entre Musk qui fait passer son salaire à 1 000 milliards, Jensen Huang qui annonce que la Chine a gagné, ou Apple qui, pour Siri, choisit l’ingénierie Google plutôt que ses propres recettes, on ne sait que choisir, tellement c’est alléchant.
Écume, bruit, effets de manche : la lumière est braquée sur la scène, mais c’est en coulisses que le scénario se décide.
Prenons plutôt de la hauteur et laissons le cirque technologique pour écouter l’oracle de Wall Street. Jamie Dimon, le PDG de JPMorgan, qui a sorti sa plume pour rédiger sa lettre annuelle.
Et quand la haute finance, secteur le plus conservateur qui soit, compare une technologie à la presse à imprimer ou à l’électricité, ce n’est plus une prédiction, c’est un ordre.
L’appel de Dimon n’est pas une invitation à l’innovation. C’est un ultimatum de productivité. Le message adressé aux employés est un réveil brutal : adaptez-vous ou disparaissez, car l’IA va augmenter presque tous les emplois. C’est la version polie de la menace de l’obsolescence.
La première banque américaine n’investit pas pour le bien-être de ses banquiers, elle le fait pour le risque, la fraude et l’optimisation. L’appel de Dimon n’est pas une prophétie et l’IA chez JPMorgan n’est pas là pour changer le monde.
Elle est là pour s’assurer que le monde ne change pas sans eux.
Touche pas au grisbi !
Sam Altman a perdu son sourire. D’habitude, si maître de son narratif, jouant tour à tour le rôle de prophète de l’AGI ou de bienfaiteur de l’humanité, le patron d’OpenAI a montré une faille inédite cette semaine. Face à Brad Gerstner, un investisseur qui lui posait une question comptable pourtant simple, voire légitime, le vernis a craqué.
Le sujet qui fâche ? Comment une entreprise qui génère 13 milliards de revenus peut-elle justifier 1 400 milliard d’engagements de dépenses ?
La réponse fut cinglante : « Si vous voulez vendre vos actions, je vous trouverai un acheteur. Ça suffit. »
Enjeux et perspectives
Oncle Sam est peut-être un peu fatigué en ce moment, mais ce « ça suffit » est l’aveu d’une fébrilité nouvelle. Il résonne comme un coup de tonnerre dans un ciel que l’on voulait sans nuage.
Car derrière la superbe technologie, la réalité financière est quand même celle d’une fuite en avant : OpenAI aurait perdu 11,5 milliards de dollars au dernier trimestre. Plus inquiétant encore, le modèle économique patine : sur les 800 millions d’utilisateurs actifs de ChatGPT, à peine 5% paient pour le service.
L’énervement d’Altman révèle le grand paradoxe du moment : l’industrie entière repose sur une promesse de rentabilité future si colossale qu’elle interdit tout débat sur la rentabilité présente. Évoquer le sujet, c’est admettre la possibilité d’une bulle. C’est ce que Gerstner a fait, et c’est impardonnable.
Car la vraie peur n’est pas comptable, elle est existentielle.
OpenAI n’est plus seulement une entreprise, c’est le navire amiral d’une croyance collective qui pèse des milliers de milliards en bourse. Si Altman vacille, c’est tout l’édifice qui tremble.
Le refus du débat n’est pas une marque de force, c’est le verrouillage avoué d’un dogme qui ne tolère plus l’hérésie des chiffres.
Quand le visionnaire lance, avec arrogance, « je te rachète si tu n’es pas content » à ses propres fidèles, c’est le signal que la pression est maximale.
Le grisbi, c’est sacré, surtout quand il menace de s’évaporer.
Source
Un problème de riche
C’est le genre de crise RH que tout patron rêverait d’avoir, avant de réaliser que c’est un cauchemar.
Chez Nvidia, le fabricant de puces qui alimente l’IA mondiale, les employés ont un problème : ils sont blindés. L’action a tellement explosé (+506 924 % depuis 1999) que le plan d’actionnariat maison a transformé les ingénieurs en rentiers.
Selon un sondage interne, 76% des employés sont désormais millionnaires. Mieux (ou pire) : près de la moitié d’entre eux sont assis sur un pactole virtuel de plus de 25 millions de dollars…
Enjeux et perspectives
Faut-il en conclure que le mécanisme des « menottes dorées », conçu pour retenir les talents, fonctionne trop bien ? C’est tentant.
Nvidia n’est bien sûr pas la seule big tech à rencontrer ce genre de problème, mais c’est la plus visible. L’entreprise affiche un taux d’attrition historiquement bas (2,5 % en 2025), un rêve pour la Silicon Valley. Mais ces chaînes en or ont un coût : la stagnation. Le talent ne fuit pas. Il reste. Il s’enkyste.
On assiste à l’émergence du semi-retraité, ce vétéran devenu millionnaire sur le papier qui reste, non par passion, mais pour attendre la date de libération de ses actions.
Le problème de Jensen Huang n’est pas une fuite des cerveaux. C’est la motivation.
L’entreprise la plus en pointe du monde risque la sclérose, car une partie de ses troupes, les vétérans, n’a plus vraiment faim. Pendant ce temps, les jeunes loups, eux, rêvent de prendre la place des vieux qui monopolisent les niches dorées.
Le patron qui s’est vanté d’avoir créé des milliardaires a réussi. Il doit maintenant gérer la crèche la plus riche du monde. Son enjeu n’est pas de retenir ses enfants gâtés, mais d’inventer le management pour ceux qui ont déjà tout gagné.
Source
L’impair de Noël
Vous avez vu, Coca-Cola a remis le couvert ? Un an après un fiasco monumental, la marque persiste et signe un nouveau film de Noël entièrement conçu par l’IA.
L’essai de 2024 avait pourtant déclenché une levée de boucliers. Il faut dire que cette première tentative était un désastre esthétique : des personnages jugés étranges, une animation maladroite et, surtout, une vague de malaise face à des visages humains figés. Pire, le monde créatif s’était étranglé face à l’accusation principale : avoir remplacé les artistes par des algorithmes.
Un échec ? Pas tout à fait, car malgré les critiques et l’accueil glacial, la campagne avait généré des milliards d’impressions.
Enjeux et perspectives
Coca-Cola a donc appris de ses erreurs. Le point de friction de 2024 venait des personnages moches ? Qu’à cela ne tienne, la solution 2025 est une pirouette magique : on efface l’humain et on le remplace par des animaux animés, du mignon phoque au gentil lapin, dans un spot plus fluide et mieux produit.
C’est une manœuvre brillante.
On garde la technologie mais on supprime le symptôme visible qui suscite la critique esthétique. Car l’enseignement de 2024 est là. L’accueil, même glacial, a prouvé que la controverse génère du buzz. Au fond, peu importe la magie, pourvu que la bouteille reste le clou du spectacle.
Coca-Cola justifie sa position comme le moyen d’amplifier la créativité humaine et d’expérimenter la magie des fêtes à l’heure du numérique, tout en assumant une transformation marketing majeure et en revendiquant une démarche collaborative avec le public via sa plateforme Creat Real Magic.
Pratik Thakar, vice-président mondial et responsable de l’IA générative chez Coca-Cola, insiste sur le fait que la campagne ne vise pas à remplacer les artistes, mais à explorer cette nouvelle “superpuissance” et que la firme ne compte pas réduire ses budgets créatifs, mais repenser leur utilisation à l’échelle mondiale.
L’argument sous-jacent est que le prompting est un art, un nouveau savoir-faire.
Coca-Cola ne fait pas qu’utiliser l’IA, l’entreprise prend parti dans cette nouvelle guerre culturelle, validant cette nouvelle technologie face à l’illustrateur traditionnel.
Maintenant que le génie est sorti de la bouteille, il va être difficile de le faire rentrer.
Source
Préparez vos mouchards
Copilot. Vous savez, l’assistant IA de Microsoft. La promesse de transformer le poste de travail en un éden de productivité, l’avènement de l’employé augmenté.
Mais la lune de miel aura été courte. Ces dernières semaines, le copilote s’est révélé sous un jour plus… complexe.
Le gadget qui devait nous libérer ressemble surtout à un triptyque de controverses qui dessine les contours de l’IA corporate : zèle commercial, curiosité structurelle et failles béantes.
Enjeux et perspectives
Tout commence par un curieux choix imposé. En Australie, le régulateur (ACCC) poursuit Microsoft pour des pratiques commerciales jugées trompeuses.
On accuse le géant d’avoir « oublié » de préciser à 2,7 millions d’abonnés qu’ils pouvaient conserver leur ancienne formule, moins chère et sans Copilot. Là, l’alternative était limpide : soit tu paies de 29% à 45% de plus, soit tu quittes le navire. La porte de sortie, elle, était cachée dans le dédale de la résiliation. Microsoft n’a pas seulement mis à jour son logiciel ; il a réécrit les règles du commerce futé.
Mais le prix n’est que le ticket d’entrée. Car une fois la licence payée, l’outil s’intéresse à vous. Le fantasme du « mouchard » n’en est pas un. C’est une fonctionnalité. Il est confirmé que les DSI ont la capacité technique de suivre les interactions de chaque employé avec l’outil. On nous vend un assistant personnel, on livre à l’entreprise un levier de management. Microsoft appelle ça la « gouvernance ». Les partenaires sociaux apprécieront la nuance.
Un assistant qui vous facture et vous observe, soit. Mais est-il au moins sécurisé ? Là encore, le bât blesse. La faille « EchoLeak » (CVE-2025-32711) a révélé une vulnérabilité « zéro-click ». Un simple e-mail piégé suffisait à un attaquant pour exfiltrer des données confidentielles. L’outil conçu pour lire tout ce que vous faites est devenu, un temps, l’outil parfait pour qu’un autre le lise à votre place.
L’IA d’entreprise version 2025 ? Un agent commercial, un chef du personnel… et parfois un agent double. La productivité, c’est bien. Mais pour l’instant, avec Copilot, c’est surtout la vie privée qui passe à la caisse.
Reste à espérer que la prochaine mise à jour inclura l’option « pardon pour l’intrusion ».
Source
Mistral gagnant ?
La France ne pouvait pas rester sur le banc de touche. Pendant que les GAFAM s’écharpent à coups de milliards, l’État français, lui, a décidé de devenir arbitre. La DINUM et le Ministère de la Culture ont donc lancé il y a un an « compar:IA », un comparateur public de modèles d’IA.
Le principe : l’utilisateur pose une question « à l’aveugle » à deux IA, puis choisit sa réponse préférée. Après un an de tests, le premier classement vient de tomber et les résultats sont surprenants.
Enjeux et perspectives
Le palmarès, d’abord.
Le grand vainqueur de ce test public est… Mistral. Une victoire tricolore, sauf que le diable est dans le détail. Ce n’est même pas le fleuron de la start-up qui gagne, mais « Mistral-medium-3.1 », une version « intermédiaire » pensée pour le « bon compromis coût/performance ».
Les modèles suivants sont du même acabit : des versions « Flash » de Gemini, allégées et rapides. Les monstres de puissance comme GPT-5 sont relégués loin derrière. La leçon est intéressante : le public ne plébiscite pas le génie, mais l’outil « suffisant », le plus pertinent pour la tâche donnée.
Ce résultat contredit frontalement les benchmarks techniques internationaux, comme LMArena. Mais c’est là toute la subtilité. Ce n’est pas un mauvais indicateur en soi ; il mesure la perception de l’utilisateur, ce que les tests de performance brute négligent totalement.
Le problème est que l’État, au nom de la protection des données, admet ne rien savoir du profil des votants. « compar:IA » n’est donc pas un benchmark. C’est un sondage de satisfaction client, une version algorithmique de l’« avis des Français ».
Et c’est là que la présence du Ministère de la Culture dans le pilotage de l’outil prend tout son sens. Car la vraie question, prudemment éludée, est le cœur du sujet : Mistral gagne-t-il parce qu’il comprend mieux les subtilités de la langue de Molière que ses concurrents nourris au globish ?
Ou gagne-t-il simplement parce que les votants préfèrent, consciemment ou non, gagner français ? Le ministère ne précise pas si le taux d’approbation augmente pour des questions d’histoire de France ou de cuisine du terroir. On ne nous parle que d’un « intervalle de confiance » très solide pour Mistral.
C’est noté.
Le hasard fait décidément bien les choses : un outil public, parrainé par l’État, qui couronne la solution nationale… On n’appelle plus ça de l’exception culturelle, mais de la préférence algorithmique.
Source
Texas Rankers
Au Texas, une nouvelle loi (SB 13) oblige les conseils scolaires à approuver chaque livre acheté pour les bibliothèques.
Une tâche titanesque.
Face à la montagne de paperasse, plusieurs districts, dont celui de Pearland, ont choisi ChatGPT comme employé du mois. On lui soumet la liste, et l’IA, en bon petit soldat, signale les titres non conformes.
Enjeux et perspectives
L’argument officiel est celui du pragmatisme. Il faut, nous dit-on, alléger la charge de travail des bibliothécaires pour qu’ils puissent se concentrer sur les apprentissages. En clair : l’expertise de la sélection est une perte de temps. On sous-traite la morale à la machine pour optimiser le planning.
Le problème, c’est que la machine est bête. Elle ne lit pas. Elle scanne. Elle ne comprend ni le contexte ni la valeur littéraire. Elle réagit seulement aux mots-clés.
Le résultat est, on s’en doute, inquiétant : des adaptations de Sa Majesté des mouches sont signalées, tout comme le moindre titre contenant le mot queer. Un livre sur le football a même été banni pour une prétendue nudité dans les vestiaires qui n’existait pas.
C’est l’Inquisition version Ctrl+F.
C’est là que le vrai glissement s’opère. On remplace des professionnels, des bibliothécaires diplômés qui se sentaient dignes de confiance, par un algorithme.
L’œil de l’expert est remplacé par le triumvirat de la suspicion : l’IA, le comité parental et le conseil scolaire. Le bon sens s’efface devant la méfiance.
L’intelligence artificielle n’est ici qu’un alibi technique. Elle offre une caution de neutralité face à une simple purge idéologique.
Le Texas n’a pas modernisé ses bibliothèques, il est en train d’industrialiser la nouvelle conformité.
Source
Les vacances farcées
Le mal du siècle, c’est le burn-out. Mais la tech a bien sûr la solution. Une application : « Endless Summer » est son nom. Sa promesse : « survivre » au surmenage.
Comment ? En générant de fausses photos de vous en vacances. Un selfie suffit pour vous retrouver dans un musée à Mexico ou dans un restaurant à Rome . Il fallait y penser…
Le créateur, membre du pôle IA de Meta, l’a conçue pour se représenter la vie douce que l’on mérite. L’auto-illusion comme thérapie.
Enjeux et perspectives
C’est l’outil parfait pour une époque qui préfère le placebo à la guérison.
Face à un rythme de travail épuisant, comme celui de cette culture 996 (9 h-21 h, 6 jours/semaine) qui s’installe, on ne change pas le travail, on change la perception du travailleur.
L’application n’est pas un outil de repos. C’est un somnifère numérique conçu pour permettre à l’employé de continuer à produire sans s’effondrer.
Attention : il ne s’agit pas d’une simple visualisation. La machine est conçue pour que le mensonge soit crédible. L’IA de Google (Nano Banana) génère des images réalistes, et un filtre style argentique y ajoute une touche de nostalgie .
Le but n’est pas de s’imaginer en vacances. Le but est de générer de fausses preuves de son propre bonheur pour s’inventer une vie et tenir un jour de plus.
Le métavers ne suffisait pas, il faut maintenant virtualiser le repos.
Le modèle atteint son apogée avec la tarification. Si les 6 premières photos sont gratuites, il faut payer pour continuer de rêver. Environ 4 dollars pour 30 photos, jusqu’à 35 dollars pour 300 images.
La leçon est simple : même les vacances imaginaires ont un prix.
Source
App sous le radar : Read.AI
Le concept Read AI est votre nouveau collègue. Celui qui se connecte à toutes vos réunions sur Zoom, Teams ou Google Meet. Il ne parle pas, il écoute. À la fin, il envoie à tout le monde un résumé parfait, une transcription impeccable et la liste des tâches assignées. C’est l’assistant rêvé.
Les plus : la promesse est celle de la productivité absolue. Fini la prise de notes. Fini le sempiternel débrief. L’IA s’occupe de la mémoire collective. Mieux : elle vous coache personnellement. Elle analyse votre temps de parole, vos tics de langage, votre débit et même votre charisme. C’est le rêve du manager : des réunions enfin efficaces, quantifiées, actionnables.
Les moins : Read AI n’est pas un preneur de notes. C’est un juge. Il ne se contente pas d’écouter les mots, il analyse les visages et les intonations pour calculer en temps réel un score de sentiment et un score d’engagement. Il vous dit qui s’ennuie, qui est négatif et qui fait semblant d’écouter. C’est une machine pour quantifier la performance sociale. Il peut rejoindre des réunions auxquelles il n’est pas invité, simplement parce qu’il figure sur le calendrier d’un participant.
Pour qui ? Pour le micro-manager qui sommeille en chacun de nous. Pour le chef de projet qui veut des métriques de l’implication de son équipe. Pour le DRH qui rêve de remplacer l’entretien annuel par un score de charisme moyen.
Le verdict : Read AI n’est pas un outil de productivité. C’est le bulletin de notes de votre vie professionnelle. À manipuler avec précaution.
Source
Contient le chapitre 1 en entier !