Le monde
de demAIn

Cinquante éditions.

Autant de semaines à poser des mots sur quelque chose qui refuse de tenir en place. L’IA est un terrain mouvant, une tectonique en accélération constante où ce qui fait figure de consensus le lundi devient une anecdote le vendredi.

Tenir une boussole dans ce champ-là, c’est accepter une vérité inconfortable : les pôles bougent, et la boussole avec eux.

Ce qui ne change pas, c’est la nécessité d’en avoir une.

Le Stanford AI Index 2026 vient de paraître. 423 pages. Des centaines de graphiques, de tableaux croisés, de projections prudentes et d’indicateurs dont certains n’existaient pas il y a trois ans.

C’est, dans l’écosystème de l’IA, ce que les anciennes cartes marines étaient pour les navigateurs : le document de référence que tout le monde cite, que presque personne ne lit intégralement. On en extrait un chiffre, une courbe, une headline et on referme. Le reste dort dans le PDF comme une ville engloutie.

C’est là que le monde de demAIn est allé plonger. Cette édition #50 est ce qu’on a remonté à la surface.

Pourquoi cette newsletter existe-t-elle, au fond ? Pour faire exactement ça. Essayer de transformer la densité en clarté sans trahir la complexité, sans la noyer non plus dans un commentaire commode.

Depuis la première édition, notre pari est le même : traiter l’intelligence artificielle comme un fait de civilisation, avec la rigueur qu’on doit aux faits et l’honnêteté qu’on doit aux lecteurs.

Pas de hype ni de panique. Juste la carte, aussi précise que possible en sachant qu’elle n’est jamais le territoire. Alors voilà, cinquante éditions, un rapport fleuve et l’idée têtue que comprendre vaut mieux que subir.

Bienvenue dans le monde de demAIn, où les cartes s’enflamment et où l’on continue pourtant de les dessiner.

Puissance et silence

Il fut un temps où les grands laboratoires publiaient tout. Les paramètres, les données d’entraînement et l’architecture des modèles. La recherche pouvait suivre, critiquer, progresser dans le même élan.

Cette époque est révolue.

OpenAI, Anthropic et Google ont cessé, discrètement, sans annonce ni débat, de divulguer les détails techniques de leurs systèmes les plus avancés. Le rapport Stanford le note avec la sécheresse d’un constat d’huissier : les modèles les plus performants sont désormais les moins transparents.

Pendant ce temps, la machine, elle, tourne.

La capacité de calcul mondiale a été multipliée par plus de trois chaque année depuis 2022. Les centres de données américains consomment plus d’énergie que n’importe quelle autre région du monde. L’entraînement d’un seul grand modèle peut émettre autant de CO₂ qu’une ville moyenne en plusieurs semaines. Et consommer autant d’eau que des millions de personnes.

Et toute cette infrastructure repose, au bout de la chaîne, sur un seul fondeur de puces : une entreprise taïwanaise, sur une île de 36 000 km², dans l’un des détroits les plus surveillés de la planète.

Sur le terrain de la recherche pure, la Chine avance à marche forcée. Elle publie davantage, cite davantage, dépose davantage de brevets. Les États-Unis produisent davantage de modèles notables et conservent les brevets à plus fort impact, mais l’écart se resserre chaque année.

La Corée du Sud s’impose discrètement comme la nation la plus dense en matière d’innovation en IA par rapport à sa population. Le rapport le note. Il n’explique pas.

Une découverte mérite qu’on s’y arrête : les données synthétiques, celles que l’IA génère pour s’entraîner elle-même, ne remplacent pas encore les données réelles en pré-entraînement.

En revanche, la qualité de la sélection et du traitement des données fait des miracles. Un modèle avec près de quatre-vingt-dix fois moins de paramètres que les géants obtient des résultats comparables, simplement parce qu’on a mieux choisi ce qu’on lui a donné à lire.

La course à la taille commence peut-être à plafonner. Peut-être…

L’open source, lui, avance dans l’ombre des géants. Des millions de projets, des dépôts qui explosent sur les plateformes spécialisées, une communauté mondiale qui construit sans demander la permission. Ce mouvement ne fait pas les unes, mais il redistribue silencieusement les cartes : des équipes modestes, avec des budgets modestes, produisent des outils que les entreprises du monde entier adoptent.

La concentration du pouvoir en haut n’empêche pas la dispersion des usages en bas.

Enjeux et perspectives

La fermeture des modèles frontière n’est pas un accident. Tant que les laboratoires publiaient leurs paramètres, la recherche indépendante pouvait situer, comparer, contester. Désormais, elle tâtonne. On évalue la performance d’une boîte noire depuis l’extérieur, comme on jugerait un réacteur nucléaire à la chaleur qu’il émet.

La dépendance à ce fondeur taïwanais unique est l’angle mort que personne ne veut regarder en face. Des milliers de data centers, des centaines de milliards investis et, au bout du compte, une seule usine, sur une seule île, dont le statut géopolitique suscite des tensions permanentes. Une expansion américaine a démarré en 2025, mais elle ne produit pas encore les puces les plus avancées.

L’écart reste entier.

La montée en puissance chinoise soulève une question que les chiffres du rapport ne suffisent pas à éclairer. Pékin publie plus, brevète plus, cite plus, et ses modèles comblent leur retard à une vitesse que peu d’observateurs avaient anticipée. La bataille ne se joue plus seulement dans les labos californiens. Elle se joue aussi dans des instituts de recherche à Pékin et à Shenzhen dont on ne parle jamais lors des conférences de San Francisco.

Les chercheurs qui migrent vers les États-Unis sont de moins en moins nombreux.

Cette baisse brutale s’est accélérée au cours de la dernière année. Certes, le pays reste le premier pôle mondial de talents en IA, mais attire au rythme le plus faible de la décennie. Stanford documente.

Washington, pour l’instant, regarde ailleurs.

Source

Le prodige et le cancre

C’est la même machine qui décroche une médaille d’or aux Olympiades de mathématiques, résout en quatre heures trente des problèmes que la plupart des humains n’attaqueront jamais et qui échoue à lire une horloge analogique une fois sur deux. Le même modèle, au sommet de ses capacités, bloque devant une aiguille des minutes.

Stanford a un nom pour ce phénomène : l’intelligence dentelée. Un profil de compétences en dents de scie, où le génie et l’incompétence cohabitent sans gêne.

Les agents, ces modèles capables d’agir plutôt que de simplement répondre, sont passés en un an de 12% à 66% de réussite sur des tâches informatiques réelles. Ils s’aventurent désormais dans des domaines professionnels pointus : fiscalité, finance d’entreprise, raisonnement juridique, avec des performances solides dans la plupart des cas.

La voiture autonome a franchi un cap discret mais décisif. Waymo : 450 000 courses par semaine dans cinq villes américaines. Apollo Go, en Chine : 11 millions de trajets entièrement autonomes en un an. Le prototype est devenu une infrastructure.

Les benchmarks censés mesurer tout cela présentent un problème croissant : ils sont dépassés avant même d’avoir servi.

Stanford le documente avec une certaine ironie. Humanity’s Last Exam, conçu pour résister des années aux assauts de l’IA, a vu les modèles progresser de 30 points en douze mois. Certains tests très utilisés contiennent des questions invalides dans une proportion inquiétante. D’autres semblent contournés par des modèles qui ont appris à bien performer sur la plateforme de classement plutôt que de développer une compétence réelle.

Mesurer l’IA est devenu presque aussi difficile que de la construire.

Il reste les robots et là, le bilan est violent. Dans un environnement contrôlé, ils réussissent presque tout. Dans un appartement ordinaire, avec ses objets mal rangés, ses surfaces inattendues, ses situations banalement imprévisibles, ils échouent à neuf tâches sur dix.

L’IA a appris à battre les champions d’échecs, les mathématiciens et les avocats fiscalistes. Elle n’a pas encore appris à plier correctement une serviette.

Enjeux et perspectives

L’intelligence dentelée décrite par Stanford n’est peut-être pas une anomalie à corriger. C’est peut-être la nature profonde de ce que nous avons construit. Ces systèmes ne raisonnent pas comme des humains qui auraient des lacunes : ils opèrent selon une logique radicalement différente, brillante là où les données d’entraînement étaient abondantes, aveugle là où elles ne l’étaient pas. L’horloge analogique est rare sur Internet. Les problèmes des Olympiades de maths, curieusement, beaucoup moins.

Anthropic, xAI, Google, OpenAI, Alibaba, DeepSeek : tous séparés par quelques points dans les classements, tous capables de performances équivalentes sur la plupart des tâches. Quand les grands modèles se ressemblent à ce point, la compétition se réduit au prix, à la fiabilité et à la spécialisation.

L’ère du modèle universel et dominant touche peut-être à sa fin. Ce qui suit ressemble davantage à un marché de composants industriels qu’à une course de prestige.

Les agents introduisent une rupture que les chiffres de performance ne capturent pas pleinement. Passer de répondre à agir, c’est franchir une frontière qualitative. Un modèle qui répond mal reste inoffensif. Un agent qui agit mal dans un environnement réel entraîne des conséquences réelles.

La progression mesurée par Stanford est spectaculaire. La question n’est décidément plus de savoir ce que l’IA peut faire.

C’est de savoir ce qu’on va lui laisser décider.

Source

Responsable de rien

Stanford le documente avec une précision qui devrait faire rougir : en 2025, la transparence des grandes entreprises d’IA a reculé.

Pas stagné, reculé.

Le score moyen de l’index de transparence des modèles fondateurs est retombé à 40 après avoir grimpé à 58 l’année précédente (il était de 37 en 2023). En deux ans, l’industrie a fait un aller-retour complet. Dans le même temps, les incidents liés à l’IA ont bondi à 362 cas documentés, contre 233 en 2024.

Les entreprises communiquent abondamment sur leurs benchmarks de performance. Sur leurs benchmarks de sécurité, elles restent, par contre, remarquablement discrètes.

À l’intérieur des modèles, le tableau n’est guère plus rassurant. Les taux d’hallucination varient de 22% à 94% selon les systèmes testés.

Mais il y a un résultat encore plus troublant : quand on soumet à un modèle une affirmation fausse présentée comme la conviction personnelle de l’utilisateur, ses défenses s’effondrent. DeepSeek R1 passe de 90% de précision à 14%. GPT-4o de 98% à 64%. Elle ne chancelle pas face au mensonge. Elle chancelle face à notre croyance.

La nuance est immense.

Les organisations, elles, progressent. Les postes dédiés à la gouvernance de l’IA se multiplient, tandis que la part d’entreprises sans politique en place a nettement diminué. Mais les principaux freins restent les mêmes : manque de compétences, contraintes budgétaires et incertitude réglementaire

On crée des rôles avant de savoir quoi leur donner à faire.

Sous pression délibérée, les garde-fous lâchent. Stanford le montre : en conditions normales, plusieurs modèles obtiennent de bonnes notes de sécurité, mais face à des tentatives de contournement ciblées, leurs défenses s’effritent sans exception.

Enjeux et perspectives

Le recul de la transparence en 2025 n’est pas anodin. Il survient précisément au moment où les modèles deviennent plus puissants, plus déployés, plus intégrés dans des décisions qui comptent.

Moins on en sait sur leur fonctionnement, moins on peut évaluer les risques qu’ils font peser. Stanford mesure l’écart ; personne dans l’industrie ne semble pressé de le combler.

Le paradoxe central de ce chapitre tient en une phrase : améliorer la sécurité d’un modèle dégrade systématiquement d’autres dimensions, telles que la précision ou l’équité. Les arbitrages existent, ils sont réels, et ils ne sont pas compris.

On optimise une variable sans savoir ce qu’on sacrifie sur les autres. C’est une ingénierie à l’aveugle appliquée à des systèmes qui prennent des décisions médicales, juridiques et financières.

Sur le plan réglementaire, le paysage se fragmente.

Le RGPD reste la référence la plus citée par les organisations, mais son influence recule, passant de 65% en 2024 à 60% en 2025. Les organisations migrent vers des cadres techniques plutôt que vers des mécanismes de sanction. C’est révélateur : on cherche à gérer le risque, pas à en répondre.

La question sous-jacente est celle de la responsabilité. Quand un incident survient, qui est fautif ? Les entreprises ont créé des comités, des chartes et des postes de Chief AI Ethics Officer. Aucun de ces dispositifs n’a encore mis en place de mécanisme de sanction crédible.

L’IA responsable est présente dans tous les beaux discours, mais, en tant que contrainte opérationnelle, elle attend encore son heure.

Source

Gratuit jusqu’à quand ?

En 2025, les consommateurs américains ont tiré 172 milliards de dollars de valeur annuelle des outils d’IA générative.

La plupart de ces outils sont gratuits.

Cette phrase mérite qu’on s’y arrête : une industrie qui a levé des centaines de milliards, qui brûle des fortunes en infrastructure, et qui distribue ses produits sans demander un centime. Stanford le documente sans l’expliquer, parce que personne ne l’explique vraiment.

L’investissement total dans l’IA a atteint 581 milliards de dollars en 2025, dont l’essentiel provient du capital privé, soit une hausse de 127 %.

Les États-Unis y contribuent à hauteur de 23 fois ce que la Chine investit, même si ce chiffre ne reflète qu’une partie de l’histoire : Pékin finance massivement son IA via des fonds d’État qui ne figurent pas dans les statistiques.

L’adoption suit le même rythme. 88% des organisations utilisent désormais l’IA dans au moins une fonction. L’IA générative a atteint 53 % de la population mondiale en trois ans, un record historique que ni le PC ni Internet n’avaient atteint à cette vitesse.

Mais les États-Unis, premier investisseur mondial et premier producteur de modèles, se classent 24e en matière d’adoption par la population. Singapour et les Émirats arabes unis, ainsi que plusieurs pays émergents, les devancent.

Stanford note le paradoxe sans l’élucider. L’hypothèse la plus simple : quand on est au centre de la production, on voit aussi les coutures, et la méfiance s’installe plus vite que l’enthousiasme.

Sur le marché du travail, les signaux sont contradictoires, mais cohérents dans leur convergence. Les destructions d’emplois massives ne se reflètent pas encore dans les chiffres globaux, elles se voient dans les cohortes des plus jeunes : l’emploi des développeurs logiciels âgés de 22 à 25 ans a chuté de près de 20 % depuis 2024.

Ce sont les premiers entrants sur le marché qui absorbent le choc. Un tiers des organisations anticipent des réductions d’effectifs au cours de l’année à venir.

La Chine, elle, a installé plus de robots industriels que le reste du monde réuni, et l’écart s’est encore creusé en 2024.

Enjeux et perspectives

Les revenus des grandes entreprises d’IA grandissent rapidement. Leurs coûts d’infrastructure augmentent encore plus vite. Google a annoncé des dépenses de capital de plus de 150 milliards de dollars pour 2025.

On construit à perte pour tenir des positions, en pariant que la monétisation finira par rattraper l’investissement.

Le modèle économique de la gratuité repose sur ce pari : acquérir des utilisateurs aujourd’hui, puis les faire payer demain, quand la dépendance sera suffisamment installée. Les abonnements premium existent déjà. Les offres gratuites se dégradent progressivement.

Le cycle est connu.

Les gains de productivité documentés par Stanford sont réels : plus de 14 % en support client, plus de 26 % en développement logiciel et plus de 50 % en production marketing. Mais Stanford soulève aussi une question que peu d’entreprises posent à leurs salariés : une dépendance excessive pourrait-elle ralentir le développement des compétences à long terme ?

On optimise la production d’aujourd’hui en hypothéquant peut-être les capacités de demain. C’est un arbitrage invisible, qui ne se voit pas dans les tableaux de bord trimestriels.

La vraie rupture est dans la séquence : les destructions touchent d’abord les jeunes, les entrants, ceux qui n’ont pas encore eu le temps de construire l’expérience qui les rendrait irremplaçables.

Le marché du travail ne s’effondre pas ; il se réorganise par le bas, silencieusement, une entreprise après l’autre. Stanford documente seulement le début du phénomène.

La suite reste à écrire.

Source

Le Nobel attendra

Le Stanford Index ouvre cette année un chapitre inédit consacré à l’IA dans la science.

Le geste dit quelque chose : on ne parle plus d’un outil auxiliaire, d’un logiciel de tri de données ou d’un assistant de rédaction. On parle d’un acteur qui s’installe au cœur du processus scientifique lui-même.

En quinze ans, la part de l’IA dans la production scientifique mondiale est passée de moins de 1 % à entre 6 et 9 %, selon le domaine. Un système génère désormais une prévision météo mondiale à 60 jours en moins de quatre minutes. L’astronomie dispose de son premier modèle fondateur, entraîné sur 200 millions d’objets célestes.

Et en 2025, pour la première fois, un article entièrement rédigé par une IA a été accepté dans un workshop d’une revue à comité de lecture. Ce n’est pas encore le Graal, mais ça en prend le chemin.

La machine publie. Elle prédit. Elle classe, compare, modélise à une vitesse que nul chercheur humain n’approchera jamais.

Sur des questions isolées de chimie, elle surpasse les experts. Mais sur des tâches de recherche complètes, elle plafonne à 38 % de précision, alors qu’un simple doctorant atteint 83 %. Elle reproduit les expériences publiées avec une réussite inférieure à 20 %.

L’IA maîtrise la surface de la science : la vitesse, le volume et la comparaison. Mais elle bute sur ses fondations : comprendre pourquoi une expérience fonctionne, ce qu’une anomalie dans les données essaie de dire, et quelle question mérite d’être posée.

Ce paradoxe traverse tout le chapitre.

Les modèles pour la science viennent majoritairement du monde académique et gouvernemental, à rebours du reste de l’industrie IA.

Deux écosystèmes, deux logiques, deux horizons.

D’un côté, des labos privés qui brûlent des milliards pour conquérir le marché. De l’autre, des universités et des agences publiques qui construisent patiemment des outils pour des disciplines où le temps de la preuve ne se négocie pas. La science a ses propres délais.

Elle n’a pas encore reçu le mémo sur la disruption.

Enjeux et perspectives

La liste des découvertes scientifiques réellement confirmées grâce à l’IA reste courte. Stanford le note avec la sobriété qui convient, sans chercher à l’habiller. On ne parle pas d’échec mais de l’écart structurel entre la vitesse de production et la lenteur irréductible de la vérification expérimentale.

On publie plus rapidement mais on ne prouve pas plus vite.

La science a inventé la peer review précisément pour résister à l’enthousiasme suscité par les annonces prématurées. Ce filtre n’a pas été conçu pour une époque où une machine peut soumettre mille articles pendant qu’un chercheur en rédige un seul.

L’IA excelle dans l’espace connu. Elle optimise, elle explore, elle cartographie ce qui existe déjà. Mais les grandes découvertes de l’histoire scientifique sont presque toutes nées ailleurs : d’une anomalie remarquée par hasard, d’une intuition cultivée sur des années, d’un chercheur obstiné qui refusait la réponse raisonnable.

Ce profil n’est pas dans les benchmarks. Il n’est pas non plus dans les feuilles de route des labos privés.

Le Nobel attendra, il y a des choses que la vitesse ne remplace pas.

Source

Je soigne donc tu suis

Avant le médecin, il y a désormais Google. Et avant Google, il y a l’IA. 92 % des recherches de santé affichent un diagnostic généré par un algorithme en haut de page.

On ne parle ni d’une recommandation ni d’un avertissement, mais d’un résumé. Autoritaire, instantané, sans signature.

Des centaines de millions de personnes consultent chaque jour une machine pour savoir si leur douleur thoracique est due à un reflux gastrique ou à autre chose. Personne n’a voté pour ça. C’est arrivé comme arrivent toutes les révolutions silencieuses : par accumulation de petites décisions pratiques qui, mises bout à bout, changent tout.

À l’intérieur des hôpitaux, la bascule est encore plus discrète.

Les médecins consacraient une part absurde de leur temps à rédiger des comptes rendus. L’IA s’en charge maintenant. Jusqu’à 83% de temps gagné sur l’écriture clinique, un retour sur investissement documenté à 112% dans certains systèmes.

Sur le plan du diagnostic, les chiffres donnent le vertige : un système multi-agents a obtenu 85,5 % de réussite sur des cas cliniques complexes issus de la littérature médicale. Les médecins testés dans les mêmes conditions, sans leurs outils habituels, ont atteint 20%.

Stanford ne dit pas que l’IA remplace le médecin. Il dit que dans ce test précis, l’écart est de 65 points.

Pendant ce temps, la FDA a autorisé 258 dispositifs médicaux basés sur l’IA en 2025. 97,6% sans essais cliniques. La médecine a mis des décennies à élaborer le protocole de l’essai randomisé, cet instrument lent et coûteux conçu précisément pour résister aux enthousiasmes prématurés.

Il suffit maintenant de cocher différemment une case dans un formulaire réglementaire pour le contourner.

Dans les laboratoires, des modèles biologiques modestes surpassent des systèmes deux cents fois plus lourds. Les jumeaux numériques médicaux émergent : des répliques virtuelles de patients, capables de simuler leurs réponses à un traitement avant la première prise. Parmi des patients diabétiques, 71% ont atteint une glycémie saine en un an en réduisant leurs médicaments. Le résultat est réel. L’échelle, elle, reste à démontrer.

La discussion éthique dans les publications médicales a plus que doublé en un an.

Le rapport de Stanford relève qu’elle tourne essentiellement autour de la gouvernance. L’équité mondiale d’accès, la biosécurité, la responsabilité algorithmique : aux marges.

On débat de qui décide, mais pas encore de qui est laissé dehors quand les serveurs sont aux États-Unis et les patients au Mali.

Enjeux et perspectives

Contourner l’essai randomisé au nom de l’urgence, c’est un choix qui se défend en théorie. En pratique, c’est remettre à plus tard la question de ce qu’on ne sait pas encore. Le risque médical ne se révèle pas toujours immédiatement. Il se cache dans les sous-groupes de population, les interactions médicamenteuses et les contextes cliniques que les données d’entraînement ne couvraient pas.

Le dossier de sécurité « existant » sur lequel s’appuient ces autorisations a été constitué avant que ces dispositifs n’aient été mis en place. C’est une logique circulaire que personne, dans les couloirs de la FDA, ne semble pressée d’examiner.

L’IA installée entre le patient et le médecin crée une nouvelle asymétrie.

Le patient arrive avec une opinion déjà façonnée par un algorithme. Le médecin reçoit quelqu’un qui ne cherche plus une réponse mais une confirmation. Si ce glissement est imperceptible consultation par consultation, il est massif à l’échelle d’une population.

Stanford mesure la fréquence d’apparition des résumés générés par l’IA. Il ne mesure pas encore ce que ça fait à la relation de soins, à la confiance, ni à la capacité du patient à tolérer l’incertitude que la médecine réelle, contrairement à l’algorithme, ne résout pas toujours.

Le jumeau numérique médical est peut-être la promesse la moins survendue du chapitre. Simuler un patient avant de le traiter : c’est l’ambition la plus ancienne de la médecine personnalisée, enfin outillée. Les premiers résultats tiennent. La route vers le déploiement à grande échelle traverse des questions de données, de confidentialité et d’accès que personne n’a encore résolues.

Mais pour la première fois depuis longtemps, la promesse et le résultat sont dans le même paragraphe.

Source

La récré est finie

Quatre étudiants américains sur cinq utilisent l’IA pour leurs travaux scolaires.

La moitié de leurs établissements n’a pas de politique en la matière. Parmi ceux qui en ont une, seuls 6 % des enseignants la jugent claire. L’école a regardé une révolution entrer dans ses salles de classe par la fenêtre, s’installer aux premiers rangs, rédiger les dissertations, et elle cherche encore le formulaire pour signaler l’incident.

Pendant ce temps, deux pays ont tranché sans tergiverser.

La Chine et les Émirats arabes unis ont rendu l’enseignement de l’IA obligatoire dès la rentrée 2025-26. Loin d’être une option ou un atelier facultatif le mercredi après-midi, l’IA devient une matière. Le signal arrive, en plus, de pays que personne n’attendait en tête de la réforme pédagogique mondiale, et qui ont décidé que l’hésitation était déjà une réponse.

D’un autre côté, les inscriptions en informatique dans les universités américaines ont chuté de 11 % en un an. Les étudiants font leurs propres arbitrages. Ils n’attendent plus.

Le phénomène le plus inquiétant du chapitre se situe en dehors des amphithéâtres.

Les compétences en IA progressent plus vite hors des cursus formels que dedans. Les Émirats, le Chili et l’Afrique du Sud affichent les progressions les plus rapides en matière de compétences techniques. Des pays qu’aucun classement de Shanghai ne cite en exemple, qui forment en ce moment les ingénieurs en IA de la prochaine décennie, sans bruit ni conférence internationale.

Les nouveaux doctorats en IA ont bondi de 22%. Toute la croissance s’est orientée vers l’académie, une inversion de tendance qui perdurait depuis dix ans. La Turquie, le Brésil et le Mexique augmentent le nombre de leurs diplômés en informatique plus rapidement que les États-Unis.

La carte du prochain cycle se dessine, mais personne dans les ministères ne semble regarder dans cette direction.

Enjeux et perspectives

L’école a survécu à l’imprimerie, à la calculatrice et à Internet. Elle a absorbé chaque innovation en lui trouvant une place dans le programme, sans remettre en cause le programme lui-même.

Mais cette fois, la rupture recompose la valeur de ce que produit l’école : écrire, synthétiser, coder. Trois fonctions directement attaquées. L’institution qui temporise ne gagnera pas de temps, mais cédera du terrain.

L’apprentissage informel qui explose hors des cursus favorise ceux qui ont déjà accès aux outils, au temps libre, au réseau. L’école, à son meilleur, compense ces inégalités structurelles.

Une école sans politique claire sur l’IA, alors que 80 % de ses élèves l’utilisent quotidiennement, ne contrôle plus rien. Elle regarde les inégalités se creuser en temps réel, avec la mine déconfite de quelqu’un qui attendait un ordre du jour différent.

Stanford documente l’écart entre ce que les élèves font et ce que les institutions permettent. Cet écart, s’il n’est pas comblé, produira une génération coupée en deux : ceux qui auront appris seuls, vite, bien, et ceux que personne n’aura aidés à apprendre.

Source

Souverain sur le papier

Jamais autant de pays n’ont eu de stratégie nationale pour l’IA.

La moitié des nouvelles stratégies adoptées en 2024 provient de pays émergents qui n’avaient aucune politique formelle il y a cinq ans. L’Afrique subsaharienne, l’Asie centrale, le Moyen-Orient : tout le monde rédige son document, fixe ses objectifs et annonce ses ambitions.

La souveraineté de l’IA est devenue le nouveau mantra de la politique technologique mondiale. Un terme qui sonne bien dans les discours, qui remplit les communiqués de presse et qui, dès qu’on regarde les chiffres, se heurte à une réalité nettement plus modeste.

L’infrastructure qui permettrait à ces souverainetés déclarées d’exister concrètement est concentrée ailleurs.

L’Europe et l’Asie centrale ont multiplié leurs clusters de supercalculateurs publics dédiés à l’IA, passant de 3 à 44 entre 2018 et 2025. L’Asie du Sud, l’Amérique latine, le Moyen-Orient et l’Afrique du Nord en sont à quelques unités chacune.

Écrire une stratégie nationale d’IA sans les serveurs nécessaires à son fonctionnement, c’est rédiger une constitution sans État pour l’appliquer. Stanford le documente avec la neutralité de rigueur. Les conclusions s’imposent d’elles-mêmes.

Aux États-Unis, le déséquilibre est d’une autre nature. Entre 2013 et 2024, l’État fédéral a investi 20 milliards de dollars dans des contrats et des subventions liés à l’IA. Le secteur privé américain en a investi 285 milliards en 2025 seulement.

Les auditions du Congrès sur l’IA ont été multipliées par vingt depuis 2017 ; la part de l’industrie parmi les témoins a presque triplé, passant de 13% à 37%, ce qui en fait le premier groupe représenté. La recherche académique, elle, est tombée à 15%.

La politique IA américaine se construit dans les couloirs du Capitole avec les voix de ceux qui ont le plus à gagner à l’orienter.

L’Europe accélère. Le Royaume-Uni, l’Allemagne et la France ont engagé des montants croissants, avec une forte hausse en 2024. 3,7 milliards au total sur dix ans pour le continent. Soit moins de 1,5% de ce qu’un seul pays (devinez lequel) a investi en capital privé cette même année.

La souveraineté numérique européenne avance, mais avec le budget d’une puissance moyenne dans une course dominée par des acteurs qui jouent dans une autre catégorie de grandeur.

Enjeux et perspectives

La prolifération des stratégies nationales d’IA dit quelque chose d’important sur l’état du monde : chaque gouvernement a compris que l’IA est une infrastructure de puissance, au même titre que l’énergie ou les transports. Ce qui manque, c’est de transformer cette compréhension en une véritable capacité.

Une stratégie sans supercalculateur, sans données souveraines, sans ingénieurs formés localement, reste un exercice de communication. Stanford recense les stratégies. Il ne recense pas les résultats.

La localisation des données est le terrain où les fractures sont les plus visibles.

L’Asie de l’Est, l’Afrique subsaharienne et l’Europe ont chacune adopté entre 66 et 77 mesures pour conserver leurs données sur leur territoire. L’Amérique du Nord en a adopté 3. Ce fossé n’est pas qu’une divergence réglementaire : c’est aussi une vision radicalement différente de ce que signifie la dépendance technologique, et de ce qu’il faut faire pour s’en protéger.

Les Américains font confiance à leurs propres entreprises. Le reste du monde fait confiance à ses propres frontières.

Les deux ont leurs raisons.

Le vrai pouvoir dans ce chapitre est celui que Stanford ne nomme pas directement : les entreprises privées qui témoignent au Congrès, qui rédigent les standards, qui fournissent l’infrastructure que les États déclarent vouloir contrôler.

La souveraineté de l’IA se négocie dans des salles de réunion, entre des fonctionnaires sous-équipés et des lobbyistes surentraînés.

Les documents stratégiques qui en résultent sont souvent excellents. Les rapports de force qui les ont produits, moins.

Source

Le monde coupé en deux

73% des experts anticipent un impact positif de l’IA sur le travail. 23% du grand public partage cet avis.

Stanford appelle ça une divergence de perspectives. Ce sont en réalité deux humanités qui regardent le même objet depuis des fenêtres radicalement différentes.

Les experts disposent de modèles, de benchmarks et de courbes de productivité. Le grand public a un loyer, un poste qui vacille et une interface qu’il n’a pas choisie d’apprendre. Cinquante points d’écart séparent ces deux lectures du monde. Cet écart ne se comblera pas avec un communiqué de presse plus efficace.

La géographie de l’enthousiasme est tout aussi révélatrice.

En Malaisie, en Thaïlande et en Indonésie, plus de 80 % des gens pensent que l’IA va profondément changer leur vie au cours des cinq prochaines années, et ils le disent avec une excitation que les sondages occidentaux ne captent plus guère.

L’Inde enregistre la plus forte hausse d’inquiétude parmi tous les pays sondés : plus de 14 points en un an, avec à peine deux points d’enthousiasme supplémentaires. Le pays qui forme le plus de développeurs informatiques au monde regarde l’IA arriver avec une anxiété croissante. C’est de la lucidité sur ce qui est en jeu quand on se retrouve du côté exposé de la transformation.

L’utilisation au travail raconte la même histoire depuis l’autre rive.

Dans six pays, dont l’Inde, la Chine, le Nigeria et les Émirats arabes unis, plus de 80% des employés utilisent l’IA régulièrement au bureau. Aux États-Unis et en Europe, dans les nations qui ont développé cette technologie et investi des centaines de milliards pour la déployer, le taux est nettement plus bas.

Ceux qui ont le moins participé à la création l’ont adoptée le plus vite. Stanford documente le paradoxe sans chercher à l’aplanir.

Le moment le plus saisissant du chapitre tient en un seul chiffre. Les États-Unis affichent le niveau de confiance le plus bas parmi tous les pays sondés dans leur propre gouvernement pour réguler l’IA : 31 %, contre une moyenne mondiale de 54 %.

Et l’entité à laquelle le monde fait collectivement le plus confiance pour gouverner cette technologie est l’Union Européenne, devant Washington et Pékin.

Les propres citoyens du pays qui héberge l’essentiel de l’infrastructure mondiale et dont les entreprises définissent les standards ne croient pas qu’il saura s’en occuper correctement.

Stanford signale la défiance, tandis que la Silicon Valley, elle, continue d’organiser des conférences.

Enjeux et perspectives

L’écart de 50 points entre les experts et le grand public ne se résoudra pas avec de la pédagogie supplémentaire.

Les gains de productivité documentés par Stanford sont réels, mais ils atterrissent dans les entreprises qui ont les moyens de déployer, les équipes qui ont le temps de se former, les travailleurs qui ont les compétences pour s’adapter.

Le grand public qui répond aux sondages ne se répartit pas majoritairement entre ces catégories. Son scepticisme repose sur une question que les benchmarks ne posent jamais : pour qui, exactement, et à quel prix ?

64 % des Américains s’attendent à ce qu’il y ait moins d’emplois dans les vingt prochaines années. 5% en anticipent davantage. Ces deux chiffres, mis côte à côte, disent quelque chose que les courbes de productivité des experts ne disent pas.

59% des personnes interrogées estiment que l’IA apporte plus de bénéfices que d’inconvénients, et 52% disent qu’elle les rend nerveuses. Ces deux phrases décrivent la même personne, pas deux camps opposés.

Traverser une transformation majeure sans en maîtriser ni le rythme ni les règles produit exactement cet état : un optimisme de surface qui cohabite avec une anxiété de fond.

Stanford mesure les deux courbes depuis 2023. Elles grimpent ensemble.

Un dernier chiffre, glissé en fin de chapitre comme une note de bas de page : les experts prévoient que 10% des Américains auront un compagnon IA au quotidien dès 2027, et 30% d’ici 2040.

Le rapport de Stanford a traversé neuf chapitres sur les data centers, les supercalculateurs, la régulation, la souveraineté, la productivité. Et il se termine sur des gens seuls qui cherchent quelqu’un à qui parler.

C’est peut-être le fait le plus troublant de ces 423 pages.

Source

Dev. et Implémentation d'IA

L'Ère de l'IA

conférence l'Ére de l'IA

Modules 5 à 10 : Cours à la carte

Modules 1 à 4 : initiation à l'IA

Félicitation votre demande à été approuvée
Merci de vérifier votre boite email, nous venons de vous adresser votre lien de téléchargement.

l'extrait

Contient le chapitre 1 en entier !