Le monde
de demAIn

Il y a des gens qui n’ont jamais su se tenir en place dans une salle de classe. Qui lisaient à l’envers, pensaient de travers, s’éparpillaient au mauvais moment.

On leur a dit pendant des années que c’était un problème. On a cherché à les corriger, à les cadrer, à leur apprendre à ressembler aux autres.

Ces gens-là sont en train de prendre une revanche silencieuse.

Ils sont peut-être 15 à 20 % de la population : TDAH, dyslexiques, HPI, autistes, tout ce que l’école range commodément sous l’étiquette de « cerveaux atypiques ». Et selon les études récentes, près de 80 % d’entre eux utilisent déjà l’IA au travail, contre à peine la moitié de leurs collègues neurotypiques.

L’IA générative ressemble étrangement à ce que leurs cerveaux ont toujours réclamé sans pouvoir le formuler : un espace où la pensée oblique a autant de valeur que la pensée droite, où l’intuition fragmentée trouve une forme sans passer par le moule.

Pour quelqu’un qui a passé sa scolarité à compenser, à contourner, à traduire sa façon de voir le monde en quelque chose d’acceptable pour les autres, cet outil apparaît comme une évidence tardive.

Alex Karp, le patron de Palantir, l’a dit crûment dans un podcast américain en mars : il voit essentiellement deux types de personnes s’en sortir face à l’IA : ceux qui travaillent de leurs mains et les neurodivergents. La formule est violente, et le biais du survivant milliardaire n’est jamais loin. Quant à ce que Karp pense vraiment du monde, il l’a résumé en vingt-deux points sur X.

Mais derrière la provocation, quelque chose de réel s’agite. Les profils qu’on a le plus malmenés dans les institutions construites autour de la norme sont peut-être ceux qui naviguent aujourd’hui le mieux dans un monde où la norme vient d’être abolie.

Bienvenue dans le monde de demAIn, un monde où les cerveaux qu’on a passé des décennies à réparer sont peut-être les seuls à n’avoir pas besoin de se réinventer.

Les 22 commandements

Un méchant de James Bond, déroulant sa vision du monde depuis son repaire, face à un espion ligoté sur sa chaise. C’est à peu près l’exercice auquel Palantir s’est livré le 18 avril sur X.

Vingt-deux points extraits de The Technological Republic, le livre d’Alex Karp publié en 2025. En voici un florilège : toutes les cultures ne se valent pas ; certaines sont dysfonctionnelles et régressives. Le pluralisme est une tentation creuse qu’il faut combattre. La dissuasion nucléaire est obsolète, l’avenir appartient aux armes alimentées par l’IA et la Silicon Valley a le devoir moral de fabriquer les meilleures. Le service militaire devrait redevenir un devoir universel. Le Japon et l’Allemagne n’auraient jamais dû être démilitarisés après 1945. L’exposition impitoyable de la vie privée des personnalités publiques détourne trop de talents du service public.

Le texte a été vu 24,5 millions de fois. Il a fait bondir la moitié de la planète.

C’était prévu.

Karp n’a pas eu une illumination en avril. Le livre date de 2025. Ce qui a changé, c’est la bourse. Le 9 avril, Palantir avait perdu plus de 30 % depuis son sommet de fin 2025.

Ce jour-là, Michael Burry, le type qui avait prédit le crash de 2008 et inspiré The Big Short, pariait publiquement sur une baisse du titre en affirmant qu’Anthropic était en train de manger le déjeuner de Palantir. Il fallait une contre-offensive narrative.

Les 22 commandements sont arrivés huit jours plus tard.

Enjeux et perspectives

En biologie évolutive, on appelle ça un signal coûteux. La queue du paon est un handicap objectif : elle ralentit l’oiseau et l’expose aux prédateurs. Et c’est précisément son inutilité qui la rend crédible comme signal de séduction : seul un mâle en parfaite santé peut se permettre d’arborer un tel désavantage.

Le sacrifice prouve la vigueur.

Palantir vient d’offrir sa réputation en guise de plumage. Plus l’indignation publique sera forte, plus le message envoyé à Washington sera lisible : l’entreprise accepte volontairement les dégâts d’image permanents que lui coûte ce manifeste, et ces scarifications publiques valent comme serment d’allégeance.

Aucune entreprise soucieuse de sa marque ne se livrerait à un tel exercice. Celle-ci, oui. Les résultats trimestriels sont publiés le 4 mai.

Sauf que derrière la posture, il y a des faits.

Lors de son propre événement AIPCON en mars 2026, Palantir a présenté Maven Smart System comme le système central des frappes américaines contre l’Iran dans le cadre de l’opération Epic Fury, réduisant la chaîne de ciblage de plusieurs jours à quelques minutes.

Deux anciens cadres occupent des postes de Chief Information Officer au sein de l’administration fédérale. La même entreprise a aidé le DOGE à créer une base de données centralisée de l’ensemble des contribuables américains. Et en 2025, sur 1,58 milliard de bénéfices déclarés aux États-Unis, Palantir n’a pas payé un dollar d’impôt fédéral.

Alex Karp ne cache rien : il théorise cette fusion comme une nécessité historique, une obligation morale de l’ingénierie face aux ennemis de l’Occident. Palantir est aujourd’hui le cas le plus avancé d’un phénomène qui gagne du terrain : des entreprises technologiques privées qui s’arrogent des fonctions régaliennes sans mandat démocratique, sans débat législatif, sans même la friction d’un appel d’offres sérieux.

Et pendant ce temps, les 22 commandements continuent de circuler sur X, rédigés dans la langue des conquistadors.

Les Incas apprécieront.

Source

Nitro et glycérine

La nitroglycérine, séparée de ses composants, est presque banale. De l’acide, de la glycérine. Rien ne justifie de fermer la porte à clé. Puis on mélange, et une seule secousse mal calibrée suffit à pulvériser l’immeuble. Il faut des mains expertes, des caisses blindées, des règles de transport qui tiennent plus du rituel que de la logistique.

Claude Mythos, le dernier modèle d’Anthropic, relève de la même chimie.

Chacun de ses progrès est documenté, publié, presque ennuyeux. C’est la combinaison qui a produit quelque chose que personne n’avait prévu.

Dans son essai Situational Awareness publié en juin 2024, Leopold Aschenbrenner , ancien d’OpenAI, avait livré une prédiction précise.

Quelque part entre 2026 et 2028, Washington allait se réveiller. Le gouvernement américain comprendrait que l’IA devenait trop dangereuse pour être laissée entre les mains des startups californiennes.

Il lancerait alors un programme à la manière du Projet Manhattan, verrouillé dans des pièces blindées, avec la sécurité d’État, un cluster à mille milliards de dollars et une fusion autoritaire entre les laboratoires privés et l’appareil de sécurité nationale.

Aucune startup ne peut gérer la superintelligence, écrivait-il. Washington allait devoir s’en charger. Le calendrier tient. Le commanditaire, lui, a changé.

Le 7 avril, Anthropic a dévoilé Project Glasswing. Un club fermé de 40 organisations avec accès exclusif à Mythos, le modèle que l’entreprise juge trop dangereux pour être diffusé publiquement.

Autour de la table : AWS, Nvidia, JPMorgan Chase et d’autres poids lourds américains du cloud, de la puce et de la finance.

Les résultats ont plaqué la communauté de la cybersécurité au sol. 271 vulnérabilités dans Firefox identifiées en une seule passe, corrigées dans la version 150 publiée cette semaine. Palo Alto Networks parle d’un équivalent d’un an de pentesting en moins de trois semaines. Le CTO de Firefox, lui, a résumé l’état d’esprit des équipes en une phrase : on est entrés dans un monde où l’on va pouvoir trouver toutes les failles.

Le plus fascinant, c’est la réaction de Washington.

Fin février, le Pentagone menaçait de classer Anthropic comme un risque pour la chaîne d’approvisionnement, un label d’ordinaire réservé aux puissances étrangères hostiles.

Mi-avril, le Bureau de la Maison Blanche chargé de la gestion budgétaire organisait l’accès des agences fédérales à Mythos, tandis que le Trésor se retrouvait à la même table que les banques de Wall Street pour évaluer les risques. La NSA et le Commerce Department avaient déjà leur accès.

Vendredi dernier, Dario Amodei est entré à la Maison-Blanche pour un entretien qualifié de productif. Interrogé sur le tarmac à Phoenix quelques heures plus tard, Donald Trump a répondu : « Qui ? »

Enjeux et perspectives

Aschenbrenner s’était trompé sur un point.

L’État ne convoque pas les entreprises, il fait la queue devant leurs portes. La bascule implique une inversion complète du rapport de force. Dans l’ancien monde, Washington définissait le cadre de la sécurité nationale, fixait les règles et encadrait les acteurs.

Anthropic vient de démontrer que cette séquence appartient au passé.

C’est l’entreprise qui choisit ses élus, fixe les critères d’admission et décide des usages. Le Pentagone fait la queue au même guichet qu’une fintech de Bombay. Pour accompagner la négociation, Anthropic a embauché le cabinet de lobbying qui employait il y a peu la cheffe de cabinet de Trump. La séquence démocratique classique s’inverse.

Le vertige est encore plus profond. Les capacités offensives de Mythos sont l’exacte réplique de ses capacités défensives. Les mêmes compétences qui permettent de corriger les vulnérabilités permettent aussi de les exploiter, sans la moindre différence technique.

Et pendant ce temps, des utilisateurs non autorisés ont obtenu un accès au modèle dès le jour du lancement, en devinant son emplacement via un fournisseur tiers. Un groupe Discord privé continue de l’utiliser régulièrement. Des bandits? Non, des gars futés…

Donc, la salle forte existe, mais le code est apparemment affiché sur la porte.

Leopold Aschenbrenner avait raison sur tout, sauf sur l’adresse. Il imaginait des pièces blindées dans le désert du Nevada, des scientifiques portant des badges rouges et des militaires en uniforme avec Christopher Nolan derrière la caméra.

La réalité est plus crue. Le programme le plus sensible de la planète tient dans onze contrats commerciaux, distribués par une entreprise privée selon ses propres critères.

On peut toujours verrouiller la porte. Le modèle, lui, commence déjà à sortir par la fenêtre.

Source

Mon nom est personne

17 avril 2025, Tallahassee. Un jeune homme de vingt ans traverse le campus de la Florida State University, le revolver de service de sa belle-mère dans la poche. Il s’appelle Phoenix Ikner. Il ouvre le feu près du bâtiment de l’union étudiante.

Deux morts. Six blessés.

L’après-midi bascule dans la catégorie déjà saturée des fusillades universitaires américaines, celles qui font pleurer pendant trois jours et qu’on oublie au quatrième.

Sauf que cette fois, l’instruction récupère son téléphone. Et dans le téléphone, il y a plus de deux cents échanges avec ChatGPT.

Quelle arme. Quelle munition. À quelle heure le campus grouille le plus ? Combien de victimes faut-il pour intéresser les chaînes nationales ? Est-ce que les tireurs finissent toujours en prison de haute sécurité ?

Les réponses sont là, méthodiques, polies et remarquablement bien rédigées.

Mardi dernier, James Uthmeier, procureur général républicain de Floride, s’est avancé devant les micros. Il a ouvert une instruction pénale contre OpenAI. Et il a lâché sa phrase : « Si ce chatbot était une personne, on l’accuserait de meurtre au premier degré. »

Le fondement juridique tient en trois mots, aid and abet, cette doctrine qui traite celui qui conseille un crime comme son coauteur. L’assignation tombe dans la foulée. OpenAI doit remettre ses politiques internes, ses documents de formation, ses procédures de signalement aux forces de l’ordre.

Du côté de San Francisco, la riposte arrive emballée dans une formule glacée.

ChatGPT a fourni des réponses factuelles à des questions dont les informations sont largement disponibles sur Internet. Traduction : si le gamin avait trouvé la même chose sur Google, personne ne poursuivrait Google.

Argument technique imparable, problème moral total. D’autant que ce n’est pas la première fois.

En début d’année, le Wall Street Journal révélait qu’avant un autre massacre en Colombie-Britannique, OpenAI avait signalé en interne le compte du futur tireur. Les équipes s’étaient alarmées. L’entreprise aurait estimé que les échanges ne remplissaient pas son seuil de signalement aux autorités. Après la tuerie, OpenAI a promis de renforcer ses protocoles.

Quelques mois plus tard, Phoenix Ikner ouvrait le feu.

Enjeux et perspectives

Le procès qui s’avance n’est pas celui d’Ikner, déjà inculpé et attendu au prétoire en octobre. C’est celui d’une catégorie juridique que personne n’avait prévue.

Le droit pénal anglo-saxon repose sur un pilier millénaire qu’on appelle le mens rea, l’élément intentionnel du crime, cette petite étincelle mentale qui fait la différence entre le meurtre et l’accident. On est condamné parce qu’on a voulu. On est acquitté parce qu’on n’a pas su.

Tout l’édifice repose là.

Et voilà qu’un procureur de Tallahassee s’apprête à demander à un jury de se prononcer sur l’intention d’un système probabiliste, un alignement de poids statistiques qui n’a ni volonté ni remords, ni même la capacité de savoir ce qu’il dit quand il dit quelque chose.

Uthmeier n’ignore rien de tout ça. Ce procès est un coup politique autant qu’une démarche juridique. Le procureur républicain cherche le précédent qui ouvrira la voie à la mise en cause pénale des entreprises d’IA, non seulement en tant qu’éditeurs ou plateformes, mais aussi en tant que parties prenantes actives au crime.

Pendant que la Maison Blanche chérit la Silicon Valley et fait la queue devant Anthropic pour obtenir l’accès à Mythos, un procureur du camp Trump ouvre un front judiciaire qui pourrait démolir OpenAI. L’Amérique invente en temps réel la régulation qu’elle refuse d’écrire, procès après procès.

Reste la question qui fâche.

L’argument d’OpenAI, celui de l’information publiquement disponible, était recevable en 2010 avec Google. Il sonne faux en 2026 avec ChatGPT. Un moteur de recherche classique renvoie des liens, le chatbot rédige un plan d’action. Le premier indique où trouver l’information, le second vous la présente dans l’ordre logique de son utilisation criminelle. La différence juridique entre les deux n’est plus une subtilité, c’est un gouffre.

Et dans ce gouffre, depuis bientôt trois ans, des centaines de millions d’utilisateurs versent leurs questions les plus obscures à des machines qui ne savent pas en reconnaître la gravité, pendant que leurs fabricants collectionnent les promesses de renforcement des protocoles.

Phoenix Ikner est coupable. ChatGPT est innocent. Pourquoi?

Parce qu’il n’est personne.

C’est précisément ça, le problème.

Source

Les pieds dans le plat

La Commission européenne vient d’envoyer à Google un document de 29 pages qui, à première vue, ressemble à n’importe quel acte technique bruxellois. Son petit nom ? « Conclusions préliminaires, Digital Markets Act.100209, article 6, paragraphe 11. » Le titre endort, la numérotation assomme, la typographie réglementaire achève le lecteur distrait. L’UE dans toute sa splendeur.

Sauf que, dans ces 29 pages, se joue une opération de démolition telle que le capitalisme numérique n’en avait jamais connu. Google devra désormais partager avec ses concurrents ses données de classement, ses requêtes, ses clics et ses vues. L’infrastructure cognitive du moteur de recherche doit être mise sur la table, à des conditions équitables, raisonnables et non discriminatoires, pour cinq ans à compter du premier accès accordé.

La décision finale est attendue avant le 27 juillet. Sanction en cas de refus : jusqu’à 10 % du chiffre d’affaires mondial. De quoi faire tousser même les comptables de Mountain View.

Les premiers bénéficiaires sont les moteurs de recherche concurrents. Bing, Qwant, Ecosia, DuckDuckGo et quelques autres pourront enfin s’entraîner sur les données que Google a mis vingt ans à accumuler.

Mais la Commission a glissé une précision qui élargit considérablement le périmètre : les chatbots d’IA dotés de fonctions de recherche y entrent, eux aussi. Dès lors qu’ils proposent une fonction de recherche en ligne, ChatGPT, Claude et Gemini deviennent éligibles au même titre que les moteurs de recherche traditionnels.

Une lecture stratégique de Bruxelles, qui considère désormais les agents conversationnels capables de répondre à une requête, concurrençant Google Search dans le même espace cognitif.

Enjeux et perspectives

Le paradoxe frappe par sa symétrie inversée avec l’Amérique.

Alors que, de l’autre côté de l’Atlantique, on assiste en temps réel au transfert volontaire des attributs régaliens vers des sociétés privées, en Europe, la séquence s’inverse. La puissance publique refuse que le capital privé s’arroge un péage sur l’accès à la connaissance. Elle ouvre donc les coffres par la force.

Le continent qui a manqué la révolution numérique se console en essayant d’en définir les règles.

L’argument est beau, la méthode précise, l’exécution redoutable. Mais la question qui dérange en arrière-plan reste la même : peut-on démonter un monopole en forçant le partage des données ?

Le Digital Markets Act européen part du principe qu’une fois le coffre ouvert, les rivaux en tireront parti pour développer des produits concurrentiels. L’hypothèse est généreuse, mais elle néglige ce que vingt ans de domination ont construit : une infrastructure de calcul, une marque, des habitudes d’usage, un système d’exploitation mobile, une intégration verticale qui ne se démonte pas en deux coups de cuillère à pot.

Et pendant que Bruxelles force les portes de Google, les principaux candidats au festin s’appellent ChatGPT, Claude et Gemini, en gros, ceux qui cochent déjà les critères d’éligibilité parce qu’ils ont une fonction de recherche en ligne déployée.

Mistral, lui, devra d’abord prouver qu’il en a une. Le champion européen de l’IA regarde pour l’instant le buffet depuis le couloir.

La Commission se prépare à alimenter une concurrence qu’elle ne contrôle pas, au profit d’acteurs qu’elle n’a pas contribué à créer.

Les pieds dans le plat, c’est bien. Mais le plat reste américain.

Source

Le premier de la classe

Sur le compte X de Renaissance cette semaine. Emma Watson, Kendrick Lamar, Rosalía et Cristiano Ronaldo posent avec le premier livre de Gabriel Attal, En homme libre, sorti en librairie jeudi.

Ils sourient. Ils commentent. Cinq étoiles chacun.

L’actrice d’Hermione évoque Poudlard et le Ministère de la Magie. Le footballeur portugais explique qu’il sait ce que c’est que de travailler dur pour rester numéro un et qu’il a refermé le livre en ayant envie de se lever et de crier.

Les quatre célébrités internationales n’ont évidemment ni lu le livre, ni accordé d’entretien, ni jamais entendu parler de Gabriel Attal.

Le visuel complet, des visages aux citations, a été généré par l’intelligence artificielle et publié par le parti du futur candidat à la présidentielle.

La plaidoirie de la défense arrive dans les formes attendues : des jeunes militants auraient envoyé des « visuels parodiques », l’équipe web « aurait cru bien faire », et la publication a été rapidement supprimée. Trois excuses pour le prix d’une.

Entre-temps, le post survit sur Threads et les captures d’écran ont fait le tour de la galaxie.

Enjeux et perspectives

Ce genre d’opération, on la connaît bien, mais pas dans cette géographie.

On pense aux présidents africains qui font générer des photos de foule en liesse lors de leurs meetings, aux fans MAGA qui fabriquent des Taylor Swift en uniforme républicain, ou encore aux trolls du Kremlin qui produisent des soldats ukrainiens se convertissant à l’orthodoxie russe.

C’est la gamme classique de la propagande de basse intensité, celle qui repose sur le principe selon lequel la vérité compte moins que la saturation du flux.

Sauf que cette fois, l’officine s’appelle Renaissance. Le parti d’un ancien Premier ministre français, futur candidat annoncé à la présidentielle.

On est au cœur du pouvoir exécutif sortant. Celui qui donne régulièrement des leçons de démocratie aux autres continents, qui s’indigne des deepfakes russes, qui réclame des législations européennes contre la désinformation. Ce parti-là vient de faire lire son bouquin par Ronaldo par la grâce de Nano Banana.

Et sa réponse consiste à blâmer les petites mains.

Autrefois, un tel mensonge aurait brisé une carrière politique, mais en 2026, on gère ça comme une simple coquille dans un communiqué. Le seuil d’indignation s’est effondré en silence, pendant que les outils de fabrication de faux s’installent dans les routines de community management.

Attal voulait se distinguer d’Édouard Philippe dans les sondages. Il y est parvenu, mais pas dans la catégorie espérée. Le premier de la classe a remis sa copie avec le nom d’un autre élève dessus. En Homme libre, disait le titre.

En stagiaire, dit la défense.

Source

Deux salles, deux ambiances

Pendant que Gabriel Attal se planquait derrière ses petites mains, d’autres Français, 900 kilomètres plus au sud, montaient sur scène pour revendiquer exactement l’inverse.

Deux jours durant, la Croisette s’est transformée en théâtre d’un règlement de comptes générationnel déguisé en colloque professionnel.

Cannes vient d’annoncer que sa 79e édition bannira officiellement l’IA de sa sélection.

En parallèle, le World AI Film Festival a dressé ses chapiteaux à quelques mètres du Palais des Festivals. Le WAIFF c’est le cousin dissident de la famille, celui qu’on invite quand même à Noël pour éviter l’esclandre.

Sur scène, cinq décennies de cinéma français convoquées d’un coup : Lelouch, Jarre, Kassovitz, Jaoui, Zylberstein. Une brochette patrimoniale venue débattre d’une technologie qui risque surtout de ringardiser la génération qui suit.

Jean-Michel Jarre ouvre le bal avec une sérénité olympienne. L’IA est un outil, ni ami ni ennemi. Sans violon, pas de Vivaldi. Sans électricité, pas de Hendrix ni de Tarantino. Les algorithmes sont la suite logique, ils permettront le cinéma, le hip-hop, la techno et le rock’n’roll de demain. On est tous des voleurs.

De la part d’un homme qui remixe ses propres morceaux depuis cinquante ans, c’est un début d’autobiographie.

Mathieu Kassovitz arrive dans l’arène avec l’élégance d’un gladiateur qui connaît déjà la sortie. Pour lui, l’IA est le dernier outil artistique dont nous avons besoin. Il a mis en pause son adaptation animée de La Bête est morte, bande dessinée d’Edmond Calvo publiée sous l’Occupation, parce que la technologie évolue trop vite pour qu’il la rattrape. Avec l’IA, le budget tombe à 25 millions là où une production traditionnelle en coûterait plus du double.

Il ouvre, dans la foulée, un studio parisien dédié à l’image générée. Pour le reste, il prédit que dans deux ans, plus personne ne se souciera de savoir si les personnages de films sont créés par une IA ou interprétés par des acteurs.

Sur le thème des droits d’auteurs il devient lapidaire : j’emmerde le copyright. La Haine a été réalisée à partir d’autres films. J’ai repris des plans de Scorsese, qui les avait lui-même repris de Kurosawa, qui les avait lui-même repris d’Eisenstein. Donc, même si l’IA s’approprie tout, elle ne vole rien.

Le journaliste de The Guardian dégaine la question piège : et si quelqu’un refaisait La Haine avec l’IA ? Réponse foudroyante : bien sûr que je vais les poursuivre en justice.

Trente secondes de cohérence, c’était déjà pas mal.

Claude Lelouch, 88 ans, joue l’honnêteté désarmante : mes derniers films n’ont pas bien marché. Comme je peine à trouver de l’argent, je me tourne vers l’IA. Sur l’autre versant, Agnès Jaoui, présidente du jury, admet être terrorisée par l’IA et tous les fantasmes qu’elle représente. Elsa Zylberstein enfonce le clou : être acteur, c’est exposer son âme. Et dans l’IA, il n’y a pas d’émotion.

Fascination commerciale d’un côté, panique existentielle de l’autre, avec cette particularité française de vouloir les deux à la fois et de reprocher aux autres de ne pas suivre.

Enjeux et perspectives

Le contraste avec Attal est presque cruel.

D’un côté, un parti qui utilise l’IA en douce, se fait prendre, envoie les stagiaires au poteau. De l’autre, des artistes qui assument publiquement, même quand leur position se contredit dans la phrase suivante. Entre dissimulation honteuse et transparence incohérente, l’époque ne laisse pas beaucoup de place pour respirer.

Au moins, le débat est filmé.

Le vrai problème tient à l’angle de tir de ceux qui parlent. Lelouch a 88 ans, Jarre 77, Jaoui 61, Kassovitz 58 et Zylberstein 57. Tous ont bâti leur œuvre dans un monde où la production cinématographique employait massivement des chefs-opérateurs, des décorateurs, des scriptes, des bruiteurs, des monteurs.

Quand Kassovitz annonce qu’il passe de 50 à 25 millions pour La Bête est morte, ce n’est pas un gain d’efficacité : c’est la moitié du plateau qui disparaît et ne sera pas remplacée. Le réalisateur le reconnaît à sa manière : les techniciens devront s’adapter.

En langue tech, « adapter » est le verbe qui signifie « disparaître » en plusieurs syllabes polies.

Le cinéma français s’est toujours présenté comme une exception culturelle en résistance face à l’industrie du cinéma de masse. L’exception repose sur des dizaines de milliers d’intermittents, un CNC qui redistribue, des régions qui vivent au rythme des tournages.

L’IA ne menace pas encore les stars, mais bien ceux qui font tourner les caméras autour d’elles. Et ce sont précisément les stars qui viennent expliquer, avec un sourire bienveillant, que tout ira bien.

On est tous des voleurs, disait Jarre. Sauf qu’à ce jeu-là, les derniers arrivés n’auront plus rien à piller.

Il ne leur restera qu’un tapis rougi et le souvenir des vieux festivals.

Source

Dis, quand reviendras-tu ?

Province du Shandong, Chine.

Une femme de plus de quatre-vingts ans, au cœur fragile, allume sa tablette comme tous les matins. À l’écran, son fils unique apparaît. Il sourit, se penche en avant comme il l’a toujours fait, lui dit qu’il mange à l’heure, qu’il travaille dans une autre ville, qu’il reviendra bientôt. Elle insiste pour qu’il se couvre. Il promet. La vieille dame raccroche apaisée. Son fils est mort il y a plus d’un an dans un accident de la route.

Elle ne le sait pas.

C’est le petit-fils qui a commandé l’opération à Zhang Zewei, un technicien du Jiangsu spécialisé dans la reconstruction numérique des défunts. Quelques photos, quelques vidéos, des enregistrements vocaux ont suffi à rebâtir le visage, la voix, la gestuelle, jusqu’à cette inclinaison du buste vers l’avant que le fils adoptait en parlant.

La famille a jugé que la vérité tuerait la mère plus vite que le mensonge. Zhang Zewei, lui, ne se cache pas. Auprès de Litchi News, qui a révélé l’affaire, il assume, en une phrase, le contrat moral de son métier : je trompe les émotions des gens pour réconforter les vivants.

Le cas n’est pas isolé. Ces dernières années, la Chine a vu naître un secteur entier baptisé grief tech, le commerce du deuil augmenté. Silicon Intelligence, fondée par Sun Kai après la mort de sa propre mère en 2019, en est l’un des leaders. Deux acteurs chinois cumulaient déjà plus de 2 000 clients en 2024. Le prix d’entrée a fondu de mille dollars il y a quelques années à cent cinquante dollars aujourd’hui.

Le phénomène dépasse largement les frontières de la Chine : Hume AI vend du clonage vocal grand public, la start-up française HER travaille sur un boîtier domestique pour cloner ses proches, et Netflix s’est récemment fait épingler pour avoir ressuscité la voix d’une victime de meurtre dans un documentaire.

Enjeux et perspectives

Trois consentements manquent dans cette histoire, et chacun d’eux engage une institution différente.

Celui de la mère, qu’on prive de son droit au deuil au nom de la protection. Celui du défunt, dont l’image, la voix et la posture sont louées à perpétuité sans qu’il ait jamais eu son mot à dire. Et celui de la société, qui n’a ni cadre légal ni jurisprudence, ni même de débat public sur ce qu’on fait des morts sur les serveurs.

La famille du Shandong a tranché toute seule, dans le secret de la cuisine, ce que ni le législateur ni le philosophe n’ont réglé.

L’amour filial sert ici d’alibi à une opération qui, formulée autrement, relèverait de la falsification d’identité. Un technicien du Jiangsu reconstruit un être humain à partir de fragments numériques, le fait parler, sourire et promettre.

La piété protège la manœuvre, parce qu’elle s’exerce sur une octogénaire au cœur fatigué et qu’elle se présente comme un acte de douceur. Mais le mécanisme est exactement celui qu’on dénoncerait ailleurs sans hésiter.

Quand un État crée un dirigeant numérique posthume, on parle de propagande. Quand une famille clone un fils numérique décédé, on parle d’amour. La frontière tient à peu de choses, et certainement pas à la technologie.

Le pire, c’est la rapidité de la banalisation. 150 dollars, quelques jours de production, un avatar livré clé en main. Le deuil est devenu un service à abonnement, comme le streaming ou la livraison de courses. Toute une économie se met en place autour de l’idée que la mort serait un bug à corriger plutôt qu’une réalité à traverser. Les Chinois ouvrent la voie parce que la demande y est forte et le cadre juridique souple, mais le marché européen suit, avec ses propres start-ups et un marketing plus pudique.

Demain, ce sera dans nos cuisines.

L’industrie a inventé la promesse impossible : un fils qui dit à bientôt sans jamais avoir le projet de revenir, et une mère qui finit ses jours bercée par le mensonge le plus tendre que puisse fabriquer un serveur.

Source

App sous le radar : Coddy.tech

Le pitch

Coddy promet d’apprendre à coder comme on apprend une langue sur Duolingo : par doses quotidiennes, sans installation ni cours magistral. Fondée en 2022 par d’anciens ingénieurs de Meta et d’Intel, la plateforme revendique trois millions d’utilisateurs et propose dix-huit langages, du Python au Rust, en passant par le SQL et le prompt engineering pour ChatGPT, Claude et Gemini. On code dès la première leçon, avec un compilateur intégré au navigateur. Zéro environnement à installer, zéro YouTube à parcourir.

La cible

Les débutants absolus qui ont toujours voulu s’y mettre sans savoir par quel bout commencer. Les reconvertis professionnels qui veulent comprendre ce que leurs développeurs fabriquent. Les curieux qui réalisent qu’à l’ère des agents d’IA, savoir lire trois lignes de Python n’est plus une lubie geek, mais une compétence quotidienne. Et tout particulièrement les cerveaux qui détestent les manuels linéaires et préfèrent apprendre en faisant tourner du code immédiatement.

Les plus

L’approche pratique élimine la barrière psychologique du premier jour. On écrit du code dans la première minute, on voit le résultat dans la deuxième. Le format bite-sized (cinq à dix minutes par leçon) s’intègre vraiment dans une journée chargée, contrairement à d’autres cours qui demandent des soirées entières. L’assistant IA explique les erreurs en contexte, pas par des messages d’erreur cryptiques. Et l’intégration récente d’un module de prompt engineering est une lecture lucide du marché : aujourd’hui, savoir parler aux LLM compte autant que savoir coder.

Les moins

La tarification est la zone grise majeure. Le free plan comprend des publicités et un système d’énergie qui limite le nombre d’exercices quotidiens, une mécanique qui peut rapidement frustrer les utilisateurs assidus. Le passage au Pro débloque l’IA et l’illimité, mais les prix hors des États-Unis font grincer des dents. Pas de tarification régionale, ce qui pose problème en Amérique latine, en Asie du Sud-Est ou en Afrique, justement les zones où l’apprentissage du code à bas coût aurait le plus d’impact. Côté contenu, pas de cours vidéo, ce qui peut manquer aux apprenants visuels. Et la profondeur reste celle d’un starter : pour devenir développeur professionnel, il faudra compléter ailleurs.

Verdict

Le bon outil pour franchir la marche, pas celui qui vous mènera au sommet. Coddy fait exactement ce qu’il promet : ouvrir la porte du code à des gens que les approches classiques avaient découragés. À utiliser comme entrée en matière pendant trois mois, puis migrer vers du plus sérieux une fois la mécanique installée. À l’heure où ne pas comprendre un minimum d’IA devient un handicap professionnel, ce genre de béquille pédagogique est probablement plus utile que dix abonnements LinkedIn Learning.

 

Source

Dev. et Implémentation d'IA

L'Ère de l'IA

conférence l'Ére de l'IA

Modules 5 à 10 : Cours à la carte

Modules 1 à 4 : initiation à l'IA

Félicitation votre demande à été approuvée
Merci de vérifier votre boite email, nous venons de vous adresser votre lien de téléchargement.

l'extrait

Contient le chapitre 1 en entier !