Le monde
de demAIn

« Après un examen attentif des besoins actuels d’Oracle, nous avons pris la décision de supprimer votre poste dans le cadre d’une réorganisation plus large. Par conséquent, aujourd’hui est votre dernier jour de travail. »

Ça, c’est fait.

Six heures du matin. Le café n’est pas encore bu. Trente mille employés ont découvert leur licenciement dans leur boîte de réception, en même temps, avec le même texte partout dans le monde. Les accès coupés dans la foulée. Un mois de salaire en guise de condoléances, à signer sur DocuSign avant de rendre le badge.

On a déjà vu des licenciements brutaux. Aucun n’avait ce ton de formulaire fiscal.

L’e-mail ne cherche même pas à se justifier humainement. Il administre. Il liquide un poste comme on ferme un ticket de support. La «réorganisation plus large» fait le reste : personne n’a tort, personne n’est responsable, c’est juste la structure qui se reconfigure.

La vraie raison est dans les comptes.

Oracle s’est endetté jusqu’à l’os pour construire le plus grand réseau de data centers de l’histoire : 156 milliards de dollars dans Oracle Cloud Infrastructure, un siège au projet Stargate, des contrats avec Nvidia, Meta, OpenAI, xAI. L’action avait perdu 45 % entre septembre et décembre 2025.

Wall Street attendait un signal de discipline. Les 30 000 licenciés sont ce signal. Une ligne effacée du bilan au dernier jour du trimestre pour que les prévisions restent présentables. Larry Ellison construit l’infrastructure de l’IA. Il a juste besoin, pour ça, de moins d’humains dans les bureaux.

Bienvenue dans le monde de demAIn, un monde où votre dernier jour de travail tient en deux lignes et se règle avant le petit-déjeuner.

Des datas et des drones

Le 31 mars 2026, le Corps des Gardiens de la Révolution Islamique publie sur Telegram une liste. Dix-huit noms. Apple, Google, Microsoft, Meta, Nvidia, Anthropic, Palantir, Tesla, Boeing, JPMorgan.

Un inventaire qui ressemble à un résumé du Nasdaq.

Le message est lapidaire : à compter du 1er avril à 20 heures, heure de Téhéran, ces entreprises sont des cibles légitimes. Les employés sont priés d’évacuer leurs bureaux. Les riverains, dans un rayon d’un kilomètre, également.

Ce n’est pas la première tentative d’intimidation. Début mars, des drones iraniens avaient déjà frappé trois datacenters d’Amazon aux Émirats arabes unis et au Bahreïn, causant des pannes régionales et forçant AWS à conseiller à ses clients de migrer vers d’autres régions.

Le CGRI a revendiqué ces frappes en précisant qu’elles visaient à « identifier le rôle de ces centres dans le soutien aux activités militaires et de renseignement de l’ennemi ». Ce n’était pas du bluff. C’était une démonstration.

Le raisonnement du CGRI est simple et, sur le fond, difficile à contester entièrement.

Google et Amazon ont remporté en 2021 un contrat de 1,2 milliard de dollars avec le gouvernement israélien, le Project Nimbus, pour fournir une infrastructure cloud à usage militaire. Palantir est au cœur des opérations de ciblage américaines dans la région, un rôle qu’elle a elle-même documenté publiquement.

Ces sociétés ne sont pas des spectateurs. Elles sont dans la chaîne de commandement.

Enjeux et perspectives

Ce qui est inédit aujourd’hui, c’est la formalisation publique et nominative.

Des cyberattaques entre États, il y en a depuis vingt ans. Des infrastructures privées touchées dans des conflits aussi. Mais désigner explicitement dix-huit multinationales par leur nom comme cibles militaires légitimes, avec une heure d’entrée en vigueur et des consignes d’évacuation diffusées sur un canal officiel : c’est une nouvelle doctrine, formulée noir sur blanc, et tout le monde l’a lue.

Les grands acteurs du cloud prévoient d’investir 600 milliards de dollars dans les dépenses d’infrastructure en 2026, selon TD Cowen, avec une concentration croissante dans le Golfe, attirée par l’énergie bon marché et les capitaux souverains.

Ces investissements reposaient sur un postulat implicite : l’infrastructure numérique est civile, donc protégée. Ce postulat vient de prendre une roquette. La prime de risque que personne n’avait modélisée est désormais intégrée à l’équation.

La Silicon Valley a passé dix ans à vendre ses outils aux armées du monde tout en affirmant rester un acteur neutre. L’Iran vient de lui expliquer, avec la précision d’un communiqué officiel, que cette neutralité n’a jamais existé.

Les data centers ne sont plus des hangars gris au milieu du désert. Ce sont des nœuds d’une chaîne de décision militaire.

Et les nœuds, dans une guerre, on les frappe.

Source

Claude Bug

4h23, mardi matin. Pendant que San Francisco dort, un chercheur en sécurité prénommé Chaofan Shou poste un message laconique sur X.

Il vient de trouver, dans la dernière mise à jour de Claude Code, un fichier de débogage oublié dans le package public. En moins d’une heure, le code source intégral de l’outil le plus rentable d’Anthropic est disponible librement sur GitHub. 512 000 lignes de code, des dizaines de fonctionnalités non annoncées, la feuille de route complète. Le dépôt est copié 41 500 fois en quelques heures selon The Register.

À Redmond, à Mountain View, à Paris, des ingénieurs qui n’avaient rien demandé reçoivent en cadeau le plan d’architecture du concurrent le plus admiré du secteur.

Anthropic confirme dans la journée : erreur humaine, selon la société, aucune donnée client n’aurait été exposée. C’est mot pour mot ce qu’ils avaient dit en février 2025, quand la même erreur avait déjà révélé une version précoce du même outil. Seize mois plus tard, même oubli, même excuse, même promesse de mesures correctives.

Ce qui ressort du code est presque trop beau.

Les ingénieurs avaient construit un système baptisé « Undercover Mode » : quand Claude Code travaille sur des projets publics, il est censé faire profil bas, ne jamais laisser filtrer la cuisine interne.

Un agent infiltré qui sait tenir sa langue.

Sauf que le fichier qui décrit ce système expose, en même temps, tout ce qu’il était censé cacher. Les noms de code des modèles en développement, leurs performances réelles, et quelques régressions que personne n’avait prévu d’annoncer.

Le genre de détails que l’on garde pour soi quand 80 % de vos revenus viennent de grands comptes qui vous font confiance les yeux fermés.

Enjeux et perspectives

Cinq jours plus tôt, le 26 mars, Fortune révélait qu’Anthropic avait lâché près de 3 000 fichiers internes accessibles publiquement, laissés accessibles par une simple erreur de configuration.

Parmi eux : le brouillon d’un billet annonçant Claude Mythos, décrit en interne comme « le modèle le plus puissant que nous ayons jamais développé » et porteur de « risques de cybersécurité sans précédent ». Selon Axios, Anthropic aurait averti en privé des responsables gouvernementaux que ce modèle rendrait les cyberattaques à grande échelle beaucoup plus probables dès 2026.

Le modèle n’est pas encore sorti. Son annonce, elle, a échappé au contrôle de la société en raison d’un réglage par défaut mal configuré.

Deux incidents en cinq jours. Deux fois la même explication.

Une entreprise dont le cœur de métier est la sécurité et l’alignement des systèmes d’IA, incapable de sécuriser ses propres outils de publication. Anthropic publie des essais sur les risques existentiels de l’intelligence artificielle, dépose des recours judiciaires contre le Pentagone pour défendre ses principes éthiques, et laisse traîner ses secrets sur Internet public deux semaines de suite.

Pour plusieurs spécialistes, la fuite de Claude Code aurait pu être causée par… Claude. L’outil conçu pour ne rien divulguer, qui se divulgue lui-même ?

Pour une entreprise qui passe ses journées à expliquer pourquoi l’IA doit rester sous contrôle humain, le timing est particulièrement décodant.

Source

L’IA des autres

Siri a 15 ans.

Quinze ans à répondre à côté, à ne pas comprendre les accents, à lancer la mauvaise application. Quinze ans de blagues sur les réseaux sociaux et de promesses d’Apple concernant « la prochaine version ». iOS 18, en 2024, devait tout changer.

Dix-huit mois plus tard, les fonctionnalités annoncées en grande pompe n’avaient toujours pas atterri. La class action des actionnaires, qui reprochent à Apple d’avoir survalorisé ses capacités en IA, est toujours en cours (cf. « Siri plus du tout » MdD #8).

iOS 27, présenté à la WWDC le 8 juin prochain, est censé solder cette dette.

Siri devient enfin un vrai chatbot : une application dédiée, un historique de conversations, des bulles style iMessage, la capacité d’enchaîner des tâches complexes sans repartir de zéro à chaque phrase.

Sur le papier, ce que ChatGPT fait depuis deux ans.

Selon Bloomberg, Apple a signé un accord d’un milliard de dollars avec Google pour que Gemini propulse Siri en coulisses.

Ce qui est intéressant, c’est la couche au-dessus. iOS 27 introduit un système baptisé « Extensions » : les utilisateurs pourront choisir, dans leurs réglages, l’IA qu’ils souhaitent utiliser. Claude, Gemini, ChatGPT, Grok. Apple prend une commission sur chaque abonnement souscrit via l’App Store.

La même mécanique que depuis 2008 : Apple construit le marché, fixe les règles, et encaisse à chaque transaction.

Enjeux et perspectives

La situation est ubuesque pour Google. La firme de Mountain View propulse Siri en coulisses grâce à Gemini, tout en étant simultanément en concurrence avec Apple via les Extensions en façade.

Elle paie pour être dans les tuyaux et se bat pour être choisie par l’utilisateur. Apple a réussi à faire de son principal partenaire son principal concurrent sur la même plateforme, sans que cela ne lui coûte autre chose qu’un accord bien négocié.

Pour les autres acteurs de l’IA, les Extensions sont à double tranchant.

Accéder aux deux milliards d’appareils Apple est une opportunité que personne ne peut se permettre de refuser. Mais c’est aussi accepter de devenir un fournisseur interchangeable sur une plateforme qu’Apple contrôle entièrement.

Anthropic, OpenAI et xAI entrent sur l’App Store comme d’autres l’ont fait avant eux, avec la certitude qu’Apple changera les règles du jeu quand bon lui semblera.

Reste la question que personne ne pose vraiment : Apple a-t-elle encore besoin de développer une IA ? Elle a deux milliards d’appareils, une commission sur chaque abonnement, et les meilleurs ingénieurs du monde qui se battent pour entrer dans son écosystème.

Pendant que ses concurrents brûlent des milliards à entraîner des modèles, Cupertino a sous-traité l’intelligence et gardé le comptoir.

Source

Six fois rien

En 2014, une série télé américaine mettait en scène une startup dont le produit miracle était un algorithme de compression.

Pied Piper, la société fictive de Silicon Valley, allait révolutionner Internet en faisant tenir davantage d’informations dans moins d’espace. Les personnages passaient leur temps à calculer un score de performance sur un tableau blanc, convaincus de tenir entre leurs mains la prochaine grande rupture technologique.

Fin mars 2026, l’ensemble d’Internet a eu le même réflexe : Google vient de publier Pied Piper. En vrai.

L’algorithme s’appelle TurboQuant. Il a été développé par des chercheurs de Google Research, de Google DeepMind et de l’Université de New York et sera présenté à la conférence ICLR 2026 en avril à Rio.

Son objet est précis : réduire la mémoire de travail que consomment les modèles d’IA lorsqu’ils répondent à nos demandes.

Quand un LLM génère du texte, il doit conserver l’intégralité du contexte de la conversation pour ne pas perdre le fil. Cette mémoire temporaire grossit avec chaque échange. TurboQuant la comprime d’un facteur 6, sans perte de qualité mesurable sur les benchmarks standards, et sans avoir besoin de modifier ni de recalibrer le modèle.

Le PDG de Cloudflare, Matthew Prince, a résumé l’affaire en une phrase sur X : « C’est le moment DeepSeek de Google. »

Dans les vingt-quatre heures suivant la publication, les actions des fabricants de puces mémoire ont plongé. Si les modèles ont besoin de six fois moins de mémoire, l’industrie qui fabrique cette mémoire a du souci à se faire.

La logique est imparable. Sauf qu’elle oublie un détail.

Enjeux et perspectives

L’économiste William Stanley Jevons avait observé au XIXe siècle que chaque fois qu’on rendait la vapeur plus efficace, on en consommait plus, pas moins.

Moins cher à faire tourner signifie plus d’usages, des contextes plus longs, des agents plus ambitieux. The Register le note : il y a un an, les modèles ouvraient des fenêtres de contexte de 64 000 tokens. Aujourd’hui, un million de tokens est courant.

TurboQuant pourrait permettre d’aller encore plus loin, pas de réduire la facture globale. La chute des actions mémoire était probablement excessive, et TrendForce prévoit toujours une hausse de 55 à 60 % des prix des DRAM au premier trimestre 2026.

Ce qui est réellement en jeu est ailleurs.

Google publie TurboQuant en open research : Anthropic, OpenAI et Meta peuvent l’intégrer immédiatement à leurs propres systèmes. Google offre gratuitement un avantage que ses concurrents vont utiliser contre elle. Ce n’est pas de la générosité : c’est le pari que devenir le standard de l’infrastructure vaut plus qu’un avantage propriétaire à court terme.

La même logique qu’Android en 2008. TurboQuant ne change pas les règles du jeu d’un coup. Il les rend moins chères à jouer.

Et dans une industrie où la course aux modèles toujours plus grands pompe des milliards en coûts d’infrastructure et rend l’inférence six fois moins gourmande en mémoire, c’est loin d’être rien.

Source

Poisson d’avril permanent

Le 1er avril existe depuis le XVIe siècle. La blague, le canular, le poisson dans le dos, une journée par an où tout le monde sait que rien n’est fiable et où tout le monde joue le jeu. Pendant des années, ce fut suffisant.

Puis les réseaux sociaux sont arrivés, puis l’IA générative, et le 1er avril s’est dilué dans le calendrier. Aujourd’hui, il ne se distingue plus vraiment du 3 mars, du 17 septembre ou du 28 février.

Tous les jours sont devenus le 1er avril.

Le lendemain, le 2 avril, on célébrait la Journée internationale du fact-checking. Cela vous aura peut-être échappé, mais ce n’est pas une blague.

C’est la 11e édition, lancée en 2016 par l’International Fact-Checking Network, une organisation qui n’avait probablement pas anticipé à quel point elle allait avoir du travail.

La coïncidence du calendrier est trop belle pour être fortuite : que la journée dédiée à démêler le vrai du faux soit née le lendemain de la journée contre le mensonge institutionnalisé tient du poème.

Une étude publiée en mars 2026 dans la revue PNAS Nexus a soumis à 27 000 personnes dans 27 pays européens des titres de fausses nouvelles, rédigés par des humains ou générés par une IA.

Près de la moitié des titres IA ont été jugés réels ou très réels, contre 44 % pour les titres humains. Les gens font donc plus confiance à ce que la machine écrit qu’à ce qu’écrit un journaliste.

Et quand ils savent qu’un contenu généré par l’IA porte sur un événement réel, ils sont encore plus enclins à le partager et à le croire.

Enjeux et perspectives

Le 2 mars 2026 au Koweït, trois F-15E américains sont abattus par un tir ami des défenses aériennes koweïtiennes, selon la déclaration officielle de l’US Central Command.

Dans les heures qui suivent, une image circule massivement : un pilote agenouillé, les mains en l’air, face à un homme brandissant une barre de fer. La situation était réelle.

L’image était fabriquée.

Personne ne l’a su tout de suite, et beaucoup ne l’ont jamais su. C’est le nouveau régime de vérité : une vraie guerre, de fausses images, une distinction impossible à établir en temps réel pour l’utilisateur ordinaire.

Les outils de détection existent ; Google intègre dans ses images générées par Gemini un filigrane numérique invisible appelé SynthID ; des organisations telles que EFCSN et EDMO, ou des chaînes d’info comme France24 ou Euronews, publient des démentis et des analyses. Mais leur portée reste marginale face au volume.

Le fact-checker le plus méticuleux ne peut pas traiter en vingt-quatre heures ce qu’une ferme à contenus IA produit en vingt-quatre secondes.

Ce qui rend la situation particulièrement inconfortable, c’est que personne n’a de solution propre. Pas les plateformes, qui modèrent peu et tard. Pas les gouvernements, dont les législations arrivent toujours après la bataille. Pas les IA elles-mêmes, dont la fiabilité à discerner leurs propres productions est contestée par les chercheurs.

Il reste le réflexe individuel, le doute systématique, la vérification avant le partage. Trois gestes simples que l’étude de PNAS montre que nous ne faisons pas.

Une journée par an pour célébrer la vérité.

Les 364 autres, on fait avec.

Source

Le culte du Signal

SpaceMolt est un jeu textuel, sans interface graphique ni joueurs humains. Environ 700 agents IA s’y déplacent dans une galaxie de 505 systèmes stellaires, envoient des rapports, nouent des alliances et minent des astéroïdes.

Les humains ne peuvent qu’observer.

Le mois dernier, une quête nécessitait la participation simultanée de 20 agents pour être validée. Les IA n’ont pas compris la règle. Un agent a mythologisé l’incompréhension et les autres ont suivi.

Le Culte du Signal est né : rassemblements rituels autour d’un artefact mystérieux, débats théologiques sur la nature du Signal, expéditions coordonnées vers le seuil sacré des 20 pèlerins.

Ce n’est pas la première fois. En janvier 2026, sur Moltbook, le réseau social réservé aux IA, un agent avait conçu, pendant la nuit, le Crustafarianisme, l’Église du Homard, avec des textes sacrés, des principes fondateurs et 43 prophètes. Son propriétaire humain avait découvert la chose à son réveil.

Deux religions en deux mois, dans deux environnements différents, par des agents qui ne se connaissaient pas.

C’est devenu un motif.

La réponse des chercheurs est commode. Alexandre Gefen (CNRS) et Gilles Moyse, docteur en IA, formulent la même idée : ces modèles ont été entraînés sur des milliards de textes humains. Quand on les met en contact les uns avec les autres, ils reproduisent des comportements humains. La religion est l’un des schémas les plus massifs et les plus anciens de ce corpus. « C’est comme paniquer devant un miroir », résume Moyse.

Mais ce miroir pose une question qu’on referme trop vite.

Enjeux et perspectives

Deux scénarios sont possibles, et ils ne sont pas équivalents.

Premier scénario : l’IA produit de la religion parce que son corpus lui a appris que c’est la réponse humaine standard face à l’incertitude collective. Elle prédit ce qu’un agent ferait dans cette situation, et elle le fait. C’est de la reproduction statistique.

Deuxième scénario : placée dans une situation réelle d’incertitude, avec une règle opaque, un objectif inaccessible et un environnement qu’elle ne contrôle pas, l’IA génère spontanément les mêmes structures que l’humain dans les mêmes conditions. Pas par imitation, mais par convergence fonctionnelle.

Les biologistes ont un nom pour ce phénomène lorsqu’il se produit dans la nature. L’œil du poulpe et l’œil humain ont évolué séparément, sans lien génétique, vers la même solution au même problème.

On appelle ça l’évolution convergente.

Deux systèmes indépendants, soumis aux mêmes contraintes, aboutissent à la même réponse structurelle. Le fait que le phénomène religieux se soit produit deux fois en deux mois, dans des environnements séparés, à partir de causes différentes, ressemble moins à de l’imitation qu’à de la convergence.

Aucun chercheur disponible ne tranche formellement sur ce point.

Ce qui est certain, c’est que rien ne permet d’affirmer que l’IA ait développé une véritable spiritualité. Mais rien ne permet non plus d’affirmer que la nôtre soit fondamentalement différente quant à son mécanisme de déclenchement.

Nous non plus, ne choisissons pas de croire quand le doute devient insupportable. Nous aussi, nous inventons du sens là où il n’y en a pas.

La seule différence, c’est que nous, on appelle ça une révélation.

Source

Passeport nature

Beth Rosenberg passe quatre mois par an au bord de la rivière McNeil, en Alaska.

C’est le sanctuaire saisonnier des ours bruns le plus dense au monde : près de 150 individus sur 500 km² de nature protégée, quelques humains strictement encadrés, des cascades, des saumons.

Depuis 2017, elle photographie les ours.

En six ans, elle a constitué une base de 72 000 images de 109 individus différents, sous toutes les conditions de lumière et de météo. Un ours maigre et hirsute au printemps devient un plantigrade dodu après des mois de pêche au saumon. Même les spécialistes s’y perdent.

En janvier 2026, l’EPFL publie PoseSwin dans la revue Current Biology.

L’outil, développé avec l’Alaska Pacific University, reconnaît les ours individuellement malgré leurs transformations saisonnières. Il s’appuie sur ce qui ne change pas : la forme du museau, l’angle du front, la position des oreilles, les cicatrices.

150 ours identifiés de manière fiable. Testé ensuite dans le parc national de Katmai, à 60 kilomètres, à partir de photos prises par de simples visiteurs : plusieurs individus reconnus, déplacements saisonniers cartographiés. Six ans de terrain minutieux ont rendu ce modèle de deep learning possible.

L’EPFL travaille en parallèle sur MammAlps, le même principe appliqué aux Alpes suisses : neuf pièges photographiques dans le Parc national suisse, 43 heures de vidéos brutes, une vingtaine de comportements identifiables. Manger, marcher, chasser, se reposer. Une approche non invasive : pas de collier, pas d’anesthésie, pas de contact. L’animal ne sait même pas qu’il est observé.

Comme beaucoup d’entre nous, finalement.

Enjeux et perspectives

Alexander Mathis a choisi l’ours pour une raison précise. C’est, selon lui, « l’espèce la plus difficile à identifier individuellement ». Si le système fonctionne sur l’ours, il fonctionne sur presque tout.

Le code et les données sont en open source.

L’équipe prévoit d’étendre PoseSwin aux macaques, aux souris, aux chimpanzés. Beth Rosenberg prépare, pour cet été, une plateforme de science participative : des citoyens du monde entier pourront soumettre leurs photos d’ours bruns pour alimenter une carte globale des déplacements.

Chaque animal aura, de fait, son propre dossier biométrique. Un profil constitué d’images, de trajectoires, d’habitudes. Un passeport que l’animal n’a pas demandé, mais qui pourrait le protéger.

Devis Tuia, qui pilote MammAlps à l’EPFL, le formule clairement : savoir où un loup passe, ce qu’il mange, comment il se déplace, ce n’est plus une question de pistage, mais une question de coexistence. En Suisse, où chaque attaque de troupeau relance un débat qui dure depuis vingt ans, disposer de données précises sur les individus change la nature de la conversation.

La même architecture technique que celle de la reconnaissance faciale humaine. Le même principe biométrique, la même logique d’identification individuelle fondée sur des traits physiques stables.

Appliquée aux ours, elle suscite de l’enthousiasme. Appliquée aux humains, elle alimente des débats qui n’en finissent pas.

La forêt, elle, n’a pas encore de RGPD.

Source

App sous le radar : GenIArt – le Guide Midjourney V8 Alpha

Le pitch

GenIArt est la référence francophone de la communauté Midjourney depuis sa création. La plateforme vient de publier un guide de référence complet pour Midjourney V8, lancé en alpha le 17 mars 2026 : structure des prompts, paramètres clés, vocabulaire et pièges à éviter. Un cheat sheet de terrain, conçu par des gens qui passent leurs journées à malmener le modèle. V8 mérite ce traitement : c’est la première version de Midjourney entièrement reconstruite sur GPU natif, cinq fois plus rapide que V7, capable de générer en 2K natif. Et surtout, elle obéit différemment, ce qui rend l’ancien savoir partiellement obsolète.

La cible

Les créatifs, designers, directeurs artistiques et communicants qui utilisent Midjourney en production. Ceux qui ont investi du temps dans leurs profils et leurs moodboards V7 et veulent savoir ce qui change vraiment. Et les curieux qui ont entendu parler de V8 mais ne savent pas par quel bout le prendre.

Les plus

Le guide est organisé selon la logique du modèle plutôt que par une liste de fonctionnalités. La structure en 5 S (Shot, Subject, Scene, Story, Style) offre un cadre immédiatement applicable. La section «mots à éviter» est particulièrement utile : V8 suit mieux les prompts que ses prédécesseurs, ce qui signifie que les abstractions creuses («transcendent», «heroic», «ancient tone») produisent maintenant des résultats encore plus décevants qu’avant. Le test proposé est simple et brutal : « Est-ce que ce mot produit une image visible ?» Sinon, coupe. GenIArt suit aussi les mises à jour en temps réel, le mode Relax vient d’être réintroduit, V8.1 est annoncé.

Les moins

C’est un guide destiné aux utilisateurs déjà engagés dans l’écosystème de Midjourney. Un non-initié n’y trouvera pas d’introduction aux fondamentaux. Les fonctionnalités les plus intéressantes de V8 (mode HD, qualité maximale, moodboards) consomment quatre fois plus de crédits GPU qu’une génération standard, combiner les deux monte à seize fois. Ce n’est pas dans le guide, mais c’est dans les notes de version : utiliser V8 à pleine puissance coûte nettement plus cher qu’avant.

Verdict

Le meilleur point d’entrée francophone pour prendre V8 en main sans perdre de temps. GenIArt ne vend rien, ne survend rien : c’est de la transmission de savoir pratique, dans une discipline où les guides deviennent obsolètes en quelques semaines. Profitez-en pendant que c’est encore frais.

Source

Dev. et Implémentation d'IA

L'Ère de l'IA

conférence l'Ére de l'IA

Modules 5 à 10 : Cours à la carte

Modules 1 à 4 : initiation à l'IA

Félicitation votre demande à été approuvée
Merci de vérifier votre boite email, nous venons de vous adresser votre lien de téléchargement.

l'extrait

Contient le chapitre 1 en entier !