L'actualité de l'été 2025

La Rétrospective de l ‘Été 2025

Cet été 2025 n ‘a pas été de tout repos. On a vu une légende du monde Linux tourner une page historique, le géant des puces graphiques faire un pari qui pourrait tout changer pour le matériel libre, et des intelligences artificielles qui, non seulement écrivent du code, mais chassent désormais les failles de sécurité avant même que les pirates ne les trouvent. De Debian à RISC-V, de Kubernetes à la sécurité, attachez vos ceintures, on décortique ensemble un été charnière pour le monde du libre.

Le Cœur du Système - L ‘Actualité des OS

On commence, comme toujours, par les fondations : les systèmes d ’exploitation. Et cet été, le mot d ‘ordre était la “maturité “. Les grands projets ont pris des décisions audacieuses, tournées vers l ‘avenir, quitte à laisser un peu d ‘histoire derrière eux.

Debian 13 Trixie : La Stabilité Réinventée

  • Contexte pour situer l’info

Pour ceux qui ne le sauraient pas, Debian est bien plus qu ‘une simple distribution Linux. C ’est un pilier de l ‘écosystème sur lequel reposent d ‘innombrables autres distributions, dont la plus célèbre est Ubuntu. Les sorties de ses versions stables sont des événements majeurs, attendus non pas pour leurs fonctionnalités dernier cri, mais pour leur fiabilité à toute épreuve. La sortie de “Trixie “, le 9 août 2025, après plus de deux ans de développement, était donc particulièrement scrutée par toute la communauté.

  • La news avec des détails techniques

Debian – Debian “trixie” Release Information

Debian 13 “Trixie " est donc arrivée avec une promesse de support complet de trois ans, et un support LTS de cinq ans, jusqu ’en 2030.

Sous le capot, on trouve du solide et du très à jour : le noyau Linux 6.12 LTS, les environnements de bureau GNOME 48, KDE Plasma 6.3 et Xfce 4.20, ainsi que des composants clés comme Python 3.13 et systemd 257. C ’est une véritable montagne de logiciels, avec plus de 69 830 paquets au total, dont 14 100 sont de nouvelles additions.

Debian – News – Debian 13 “trixie” released

Toujours dans les changements majeurs, le 31 juillet, Debian a annoncé

basculer l’horloge système en 64 bits pour éviter le bug de l’an 2038. Le problème Y2038 touche les systèmes 32 bits : le temps Unix actuel, stocké dans un entier 32 bits, débordera en janvier 2038. Pour éviter un crash massif des appareils, Debian passe toutes ses API en time64. L’équipe a dû modifier 6 500 paquets et changer des interfaces ABI. La transition concerne les architectures 64 bits prises en charge par Debian 13 (amd64, arm64, armel, armhf, ppc64el, riscv64 et s390x). L’architecture i386 (32 bits) reste inchangée, ce qui inquiète certains mainteneurs pour les appareils armhf (très présents dans l’embarqué)

https://www.debian.org/releases/stable/release-notes.en.pdf

Mais la véritable nouvelle qui a fait les gros titres, c ’est un changement architectural majeur. Debian 13 introduit pour la première fois le support officiel de l ‘architecture 64-bit RISC-V, riscv64. Et dans le même mouvement, elle abandonne le support de l ‘architecture historique 32-bit pour PC, i386, en tant que cible d ‘installation principale. Les paquets i386 existent toujours pour assurer la compatibilité sur les systèmes 64-bit, mais il n ’est plus possible de faire une nouvelle installation de Debian sur un vieux PC 32-bit.

Ce choix marque une nouvelle étape dans la modernisation de la distribution la plus utilisée des serveurs et des objets connectés.

  • Les conséquences possibles

Cette décision, bien que technique, est lourde de sens. La fin de l ‘ère i386 pour une distribution aussi fondamentale que Debian marque la fin définitive du calcul 32-bit dans le monde grand public et serveur. Cela simplifie la maintenance pour les développeurs de Debian et pousse tout l ‘écosystème à aller de l ‘avant.

En parallèle, l ‘adoption officielle de RISC-V est un formidable coup de pouce pour cette architecture matérielle ouverte. Avoir le sceau d ‘approbation de Debian, c ’est un gage de stabilité et de légitimité qui rend RISC-V crédible pour des déploiements sérieux et à long terme. La concomitance de ces deux événements n ’est pas un hasard. En abandonnant un standard du passé (i386) tout en adoptant un standard du futur (RISC-V) dans la même version, Debian, projet connu pour sa prudence, envoie un message extrêmement fort. Ce n ’est pas juste une mise à jour technique, c ’est une déclaration d ‘intention sur la vision à long terme de l ‘informatique libre : elle sera ouverte, du logiciel jusqu ‘au processeur.

  • Les réactions des acteurs du libre

La communauté a réagi avec une certaine nostalgie mais surtout beaucoup de compréhension concernant l ‘abandon de l ‘i386. Sur les forums, on a pu lire des messages comme “Adieu, i386. On a passé de bons moments ensemble “. C ’est la reconnaissance que cette page devait être tournée.

https://www.reddit.com/r/linux_gaming/comments/1mmhi8i/debian_13_trixie_is_out_supports_riscv_and_drops/


Noyau Linux 6.16 : Plus Rapide, Plus Sûr, Plus Malin

  • Contexte pour situer l ‘info

Le développement du noyau Linux ne s ‘arrête jamais. La version 6.16, annoncée par Linus Torvalds fin juillet, est le fruit d ‘un cycle de développement qu ‘il a lui-même qualifié de “sympa et calme “. Mais ne vous y trompez pas : “calme " ne veut pas dire “sans intérêt “. Au contraire, c ’est souvent dans ces versions que l ‘on trouve les améliorations les plus profondes et les plus impactantes pour la stabilité et la performance du système.

Linux 6.16 - Linus Torvalds

Linux 6.16 Released with Performance and Networking Enhancements

  • La news avec des détails techniques

La version 6.16 a été publiée aux alentours du 28 juillet 2025. Parmi les nouveautés majeures, on retient surtout trois axes :

  1. Intégrité des données avec les écritures atomiques sur XFS : Le système de fichiers XFS, très utilisé dans le monde de l ’entreprise, supporte désormais les “grandes écritures atomiques “. Concrètement, cela veut dire qu ‘une opération complexe qui écrit sur plusieurs blocs de disque (comme une transaction dans une base de données) sera soit entièrement réalisée, soit pas du tout. En cas de coupure de courant ou de crash au milieu de l ‘opération, on ne se retrouve plus avec des données à moitié écrites et corrompues. C ’est une garantie d ‘intégrité fondamentale. 1.

    The 6.16 kernel is out

  2. Sécurité du cloud avec le “Confidential Computing “ : Le noyau intègre le support initial pour les Intel Trusted Domain Extensions (TDX). C ’est une technologie qui, à l ‘instar de SEV chez AMD, permet de créer des machines virtuelles entièrement chiffrées et isolées au niveau matériel. Même l ‘hébergeur du cloud, même l ‘hyperviseur, ne peut pas accéder à la mémoire de la VM. C ’est une avancée majeure pour la sécurité des données dans les environnements multi-locataires (multi-tenant).

    • 🔒 Principe général

      Le Confidential Computing vise à protéger les données pendant leur utilisation (et pas seulement au repos ou en transit).

      Jusqu’ici, on chiffrait les données sur disque (storage) et sur le réseau (TLS). Mais une fois en mémoire dans une VM ou un conteneur, elles pouvaient être accessibles par l’hyperviseur ou un administrateur du cloud.

      Avec des technologies comme Intel TDX et AMD SEV, on introduit une nouvelle couche de sécurité au niveau matériel : la mémoire des machines virtuelles est chiffrée en permanence et isolée par le processeur lui-même.

    • ⚙️ Intel TDX (Trusted Domain Extensions)

      • Fonctionnement :
        • Permet de créer des Trusted Domains (TDs), c’est-à-dire des VMs protégées dont la mémoire est chiffrée et isolée.
        • Le chiffrement est géré directement par le processeur, avec des clés que ni l’hyperviseur ni l’hébergeur n’ont.
        • Les interactions avec l’extérieur (appels système, E/S) passent par des interfaces sécurisées.
      • Garanties :
        • Même si l’hyperviseur est compromis, il ne peut pas lire ni modifier la mémoire de la VM protégée.
        • Atténue fortement les risques dans un environnement multi-locataires (cloud public).
    • ⚙️ AMD SEV (Secure Encrypted Virtualization)

      • Technologie similaire mais propre à AMD.
      • SEV-ES / SEV-SNP : extensions plus avancées qui protègent non seulement la mémoire de la VM, mais aussi l’intégrité de son état (registres CPU, structures de contrôle).
      • Aujourd’hui déjà déployé chez plusieurs grands acteurs du cloud.

      👉 En résumé : Intel TDX (comme AMD SEV) marque une avancée majeure du Confidential Computing. Cela permet d’exécuter des workloads sensibles dans le cloud avec un niveau de confidentialité quasi équivalent à un datacenter privé, car même l’hébergeur ne peut pas voir vos données.

  3. Performance sur mesure : Une nouvelle option de compilation, CONFIG_X86_NATIVE_CPU, a fait son apparition. Elle permet de compiler le noyau en utilisant l ‘option -march=native, qui l ‘optimise spécifiquement pour le processeur de la machine sur laquelle il est compilé. Ce n ’est pas pour les distributions généralistes, mais pour les passionnés ou les administrateurs de clusters de calcul (HPC) qui veulent extraire la moindre goutte de performance de leur matériel. 1.

    Linux 6.16 Features From NVIDIA Blackwell To Performance Improvements & Intel APX

On note aussi pêle-mêle le support de l ’extension Arm Scalable Matrix Extension (SME) pour accélérer les calculs matriciels, le MMX des matrices sous ARM, essentiels en IA, et une meilleure prise en charge des derniers ordinateurs portables sous Snapdragon X.

  • Les conséquences possibles

Ces améliorations, bien que très techniques, ont des conséquences bien réelles. Les écritures atomiques sur XFS renforcent la position de Linux comme plateforme de choix pour les bases de données et les systèmes de stockage critiques. Le support d ‘Intel TDX continue de faire du noyau la fondation la plus sécurisée pour le cloud computing. Et l ‘option de compilation native donne un nouvel outil aux utilisateurs les plus exigeants.

En observant ces changements, on comprend que le noyau ne se contente pas d ‘évoluer au jour le jour. Il pose les briques fondamentales pour répondre aux grands défis informatiques de la prochaine décennie : la sécurité du cloud, la résilience des données à grande échelle et l ‘optimisation pour les charges de travail spécialisées comme l ‘IA et le HPC. Le noyau 6.16 n ‘améliore pas seulement le Linux d ‘aujourd ‘hui, il construit le Linux de 2030.

  • Les réactions des acteurs du libre

La presse spécialisée et la communauté des développeurs ont salué ces avancées. On a beaucoup parlé des “performances stupéfiantes " apportées par des optimisations dans le système de fichiers EXT4 , et des bénéfices en matière d ‘intégrité des données pour XFS.

L ‘accueil a été très positif, car il s ‘agit de gains d ‘ingénierie solides et significatifs, plutôt que de fonctionnalités tape-à-l ‘œil.

Linux Kernel 6.16 Released: Ext4/XFS Enhancements, AMD/Intel Support

  • Lien direct vers la source officielle

https://lwn.net/Articles/1031534/


Le Monde BSD en Mouvement

  • Contexte pour situer l ‘info

Pendant que Linux occupe le devant de la scène, les systèmes BSD – FreeBSD, OpenBSD, NetBSD – poursuivent leur développement, plus discret mais toujours axé sur la rigueur, la sécurité et la propreté du code. L ‘été 2025 a été marqué par des avancées importantes, notamment pour rendre ces OS plus accessibles sur du matériel moderne, en particulier les ordinateurs portables.

  • La news avec des détails techniques

Du côté de FreeBSD, alors que la version 14.3 est sortie en juin,

tous les regards sont tournés vers la future version majeure, FreeBSD 15, prévue pour décembre 2025. Le grand chantier de cet été est l ‘intégration d ‘une option pour installer un environnement de bureau graphique, en l ‘occurrence KDE Plasma, directement depuis l ‘installeur en mode texte bsdinstall.

Cela permettrait à un utilisateur de cocher une case et de se retrouver avec un système graphique complet après l ‘installation. En parallèle, le projet de la Fondation FreeBSD pour améliorer le support des laptops porte ses fruits : on note l ‘importation de pilotes graphiques depuis le noyau Linux 6.8 (pour le support des puces Intel Meteor Lake), une meilleure gestion de l ‘énergie (notamment le “Modern Standby " de Microsoft) et des améliorations sur le Wi-Fi.

Chez OpenBSD, le développement continue sur la branche “-current " après la sortie de la version 7.7 en avril. Cet été, le projet a lancé un appel à la communauté pour tester le support des webcams USB et a intégré de nouvelles fonctionnalités dans son projet phare, OpenSSH.

626: USB webcam testing

On a aussi vu arriver KDE Plasma 6.4 dans les “ports " d ‘OpenBSD début juillet, montrant que le projet suit de près l ‘actualité des bureaux modernes.

  • Les conséquences possibles

Pour FreeBSD, l ‘ajout d ‘une option d ‘installation graphique est une petite révolution. Cela abaisserait considérablement la barrière à l ’entrée pour les nouveaux venus, et pourrait en faire une alternative de bureau plus crédible face à Linux. L ‘amélioration du support des ordinateurs portables comble une faiblesse historique et rend FreeBSD plus viable pour un usage quotidien sur du matériel récent. Quant à OpenBSD, le renforcement continu d ‘OpenSSH profite à tout Internet, puisque c ’est l ‘implémentation de référence utilisée presque partout.

  • NetBSD

NetBSD 11 se prépare au décollage – Le 4 août, Phoronix révèle que

NetBSD 11.0 entrera en version bêta en septembre et sera publié en octobre. Les développeurs travaillent déjà à la release. Les nouveautés incluent une amélioration de l’émulation Linux, un meilleur support RISC‑V, la prise en charge du démarrage PVH (paravirtualisation) sur x86 avec QEMU et Firecracker, de nouveaux pilotes de gestion thermique et ventilateurs, et des améliorations matérielles diverses.

NetBSD 11.0 Preparing For Release With Improved Linux Emulation, Better RISC-V Support

En espace utilisateur, NetBSD 11 introduit des outils pour manipuler les variables UEFI et met à jour de nombreux paquets. L’équipe organise la distribution de jeux d’images ISO adaptés aux capacités des lecteurs CD et DVD pour faciliter l’installation La publication prochaine d’une version majeure de NetBSD, réputée pour sa portabilité (plus de 50 plateformes supportées), renforce la diversité de l’écosystème BSD.

Sécurité et Réglementation - L ‘IA et la Loi

On passe maintenant à deux forces qui secouent le monde de l ‘open source : d ‘un côté, le potentiel incroyable de l ‘intelligence artificielle pour la défense, et de l ‘autre, la pression croissante des régulations gouvernementales. La tendance est claire : on va vers une formalisation et une automatisation de la sécurité.

“Big Sleep " : L ‘IA de Google qui Chasse les Zero-Days

  • Contexte pour situer l ‘info

Jusqu ‘à présent, la découverte de failles de sécurité était un processus largement réactif. Des chercheurs (ou des pirates) trouvaient une faille, et tout le monde se précipitait pour développer et appliquer un correctif. Le projet Project Zero de Google cherche à renverser cette dynamique en utilisant l ‘IA.

A summer of security: empowering cyber defenders with AI

  • La news avec des détails techniques

Mi-juillet, le monde de la cybersécurité a été secoué par une annonce de Google. Leur agent d ‘IA, baptisé “Big Sleep “, a découvert une vulnérabilité zero-day critique dans SQLite, la base de données embarquée la plus utilisée au monde. La faille, référencée CVE-2025-6965, était un problème de corruption de mémoire déclenchable via une injection SQL.

Google’s AI ‘Big Sleep’ Detects Critical SQLite 0-Day, Halts Ongoing Attacks

Le point le plus incroyable de cette histoire n ’est pas tant la découverte elle-même, mais la manière dont elle a été faite. Big Sleep a identifié la faille en analysant des renseignements sur les menaces (threat intelligence) qui suggéraient que des attaquants étaient en train de préparer l ’exploitation de cette faille. L ‘IA a donc permis à Google de coordonner la création d ‘un patch avant que la faille ne soit utilisée dans une attaque réelle. C ’est, a priori, la toute première fois qu ‘une IA déjoue de manière proactive une tentative d ’exploitation dans le monde réel.

Google’s AI ‘Big Sleep’ Detects Critical SQLite 0-Day, Halts Ongoing Attacks

  • Les conséquences possibles

C ’est potentiellement un tournant majeur dans la cybersécurité. On pourrait passer d ‘un modèle de défense réactif à un modèle prédictif, piloté par l ‘IA. La durée de vie des vulnérabilités zero-day pourrait être drastiquement réduite, donnant un avantage crucial aux défenseurs. Cela met aussi la pression sur toute l ‘industrie pour améliorer ses outils de sécurité.

Cette histoire montre aussi que le cycle de vie d ‘une vulnérabilité est en train de s ‘accélérer et de s ‘automatiser. La découverte par Big Sleep a forcé un cycle de correction ultra-rapide, bouclé en 48 heures. D ‘autres recherches montrent que l ‘IA peut aussi aider à générer les correctifs.

AI and the Software Vulnerability Lifecycle | Center for Security and Emerging Technology

Des entreprises commencent même à construire des agents IA pour automatiser toute leur chaîne de gestion des vulnérabilités, de la détection à la proposition de pull request.

Scaling Security in the Age of AI: How TRM Labs Built Self-Improving Vulnerability Agents with Reinforcement Learning | TRM Blog

Big Sleep est donc la partie émergée d ‘un iceberg bien plus grand : l ‘automatisation de bout en bout de la réponse aux incidents de sécurité, une tendance qui va forcer les projets open source à adopter des pratiques de sécurité beaucoup plus structurées pour suivre le rythme.

  • Les réactions des acteurs du libre

La communauté de la sécurité a réagi avec un mélange d ’enthousiasme et de prudence. C ’est une preuve de concept spectaculaire pour l ‘IA dans la recherche de vulnérabilités. Cependant, les experts rappellent que si l ‘IA est excellente pour trouver des variations de bugs déjà connus, la découverte de nouvelles classes de vulnérabilités nécessitera probablement toujours la créativité humaine. Et bien sûr, il y a la crainte que les attaquants utilisent les mêmes technologies, ce qui nous mènerait à une nouvelle forme de course à l ‘armement numérique.

  • Lien direct vers la source officielle

[https://blog.google/technology/safety-security/cybersecurity-updates-summer-2025/]

Les Géants du Cloud-Native Évoluent

Après la sécurité, penchons-nous sur les plateformes qui font tourner nos applications modernes. Kubernetes et Docker, les deux piliers du cloud-native, s ‘adaptent aux deux grandes tendances de l ‘année : la montée en puissance de l ‘IA et la quête incessante d ‘une meilleure expérience pour les développeurs.

Kubernetes 1.34 “Of Wind & Will "

  • Contexte pour situer l ‘info

Kubernetes, l ‘orchestrateur de conteneurs qui domine le marché, continue son rythme de trois versions par an. La version 1.34, sortie fin août et poétiquement nommée “Of Wind & Will " (Du Vent et de la Volonté), est une version de raffinement, axée sur l ‘amélioration des performances et la prise en charge de charges de travail complexes.

Kubernetes v1.34 Release Information

  • La news avec des détails techniques

La version 1.34 est sortie le 27 août 2025. Voici les points clés :

  1. Dynamic Resource Allocation (DRA) devient stable : C ’est LA grande nouvelle pour tous ceux qui font de l ‘IA/ML sur Kubernetes. Le DRA permet une gestion et une allocation très fines du matériel spécialisé comme les GPUs. Fini le modèle simpliste “je veux 1 GPU “. On peut maintenant demander une fraction de GPU, spécifier des capacités précises, et Kubernetes s ‘occupe de gérer le partage et l ‘allocation de manière intelligente. C ’est un changement fondamental pour les workloads d ‘IA.

    New Features We Find Exciting in the Kubernetes 1.34 Release

  2. La controverse KYAML : Une nouvelle fonctionnalité en alpha, KYAML, a fait beaucoup de bruit. C ’est un “dialecte " de YAML plus strict, conçu pour éviter les erreurs courantes comme les problèmes d ‘indentation ou la conversion de type involontaire (par exemple, la chaîne de caractères “no " interprétée comme le booléen false). L ‘idée est de rendre les manifestes plus robustes.

    Everything New in Kubernetes 1.34 with examples — Coming August 27, 2025

  • Les réactions des acteurs du libre

La communauté est très enthousiaste concernant le DRA, y voyant une fonctionnalité critique pour l ‘avenir de l ‘IA sur Kubernetes. En revanche, l ‘introduction de KYAML a été accueillie avec beaucoup de scepticisme, voire de critiques, notamment sur Reddit. De nombreux développeurs y voient un changement inutile et lourd pour un format qu ‘ils maîtrisent, et auraient préféré une standardisation sur la version 1.2 de YAML.

Kubernetes 1.34: Deep dive into new alpha features – Palark | Blog

Quant au nom de la release, “Of Wind & Will “, il s ‘agit d ‘un clin d ‘œil philosophique à la détermination de la communauté à faire avancer le projet malgré sa complexité inhérente.

Docker Pense IA et Multi-Node

  • Contexte pour situer l ‘info

Docker, de son côté, continue de se concentrer sur l ‘outil du développeur, Docker Desktop, pour simplifier ce qu ‘on appelle la “boucle intérieure " du développement, surtout quand il s ‘agit d ‘applications complexes et distribuées.

  • La news avec des détails techniques

La version 4.38 de Docker Desktop, sortie durant l ‘été, a apporté des nouveautés significatives :

Why I am excited about Docker in 2025

  1. Docker AI Agent (en Bêta) : Un assistant IA est maintenant intégré dans la ligne de commande et l ‘application. Il fournit des suggestions de commandes contextuelles, aide à optimiser les Dockerfiles et assiste au débogage des conteneurs qui ne démarrent pas
  2. Test sur Kubernetes Multi-Node : Les développeurs peuvent désormais simuler et tester leurs applications sur un cluster Kubernetes local composé de plusieurs nœuds. Cela permet de tester de manière beaucoup plus réaliste des scénarios de systèmes distribués, de basculement (failover) ou de politiques réseau, sans avoir besoin d ‘un environnement cloud coûteux.
  3. docker bake en version stable : La commande docker bake, qui simplifie et parallélise la construction d ‘images pour plusieurs plateformes et architectures à partir d ‘un fichier déclaratif, est maintenant considérée comme stable et prête pour la production.
  • Les conséquences possibles

Ces outils augmentent considérablement la productivité des développeurs. L ‘agent IA réduit la charge cognitive, tandis que le test multi-nœud local réduit l ‘écart entre l ’environnement de développement et la production, ce qui permet de détecter les bugs plus tôt.

  • Les réactions des acteurs du libre

La communauté des développeurs accueille toujours favorablement les outils qui simplifient les workflows complexes. D ‘ailleurs, le rapport “State of Application Development " 2025 de Docker confirme cette tendance, en montrant une bascule massive vers les environnements de développement non-locaux (utilisés par 64 % des développeurs). Cela valide complètement le besoin d ‘outils de simulation locale plus performants, comme le Kubernetes multi-nœud.

  • Lien direct vers la source officielle

[https://medium.com/@sumonigupta/why-i-am-excited-about-docker-in-2025-ba028badc2ca]

Le Matériel Libre Prend son Envol

On quitte le monde du logiciel pur pour s ‘intéresser au matériel, et plus particulièrement à l ‘annonce la plus retentissante de l ‘année. Le thème ici, c ’est la validation des standards ouverts comme catalyseurs de disruptions profondes du marché.

Le Coup de Tonnerre : NVIDIA Porte CUDA sur RISC-V

  • Contexte pour situer l ‘info

Pour bien comprendre l ‘ampleur de cette nouvelle, il faut poser les bases. D ‘un côté, nous avons NVIDIA et sa plateforme logicielle propriétaire CUDA, qui est le standard de facto pour le calcul accéléré par GPU. C ’est le fossé qui protège son quasi-monopole sur le matériel d ‘IA. De l ‘autre, nous avons RISC-V, une architecture de jeu d ‘instructions (ISA) ouverte, qui défie la domination propriétaire de x86 (Intel/AMD) et ARM. Jusqu ‘à présent, pour faire tourner l ‘écosystème CUDA, il fallait obligatoirement un processeur hôte x86 ou ARM.

  • La news avec des détails techniques

Nvidia to bring CUDA platform support to the RISC-V – RISC-V International

Lors du sommet RISC-V en Chine, en juillet 2025, NVIDIA a officiellement annoncé qu ‘ils portaient la plateforme CUDA pour qu ’elle puisse fonctionner avec des processeurs RISC-V. NVIDIA a précisé que cette décision a été rendue possible par la ratification récente de la spécification RVA23, un profil pour les serveurs RISC-V qui leur a enfin fourni la cible matérielle stable et prédictible dont ils avaient besoin.

NVIDIA on RVA23: “We Wouldn’t Have Considered Porting CUDA to RISC-V Without It” – RISC-V International

L ‘objectif est de permettre des systèmes où un CPU RISC-V orchestre les GPUs NVIDIA, en gérant le système d ’exploitation et les pilotes.

NVIDIA Ports CUDA to RISC-V, Betting Big on Open-Source ISA

  • Les conséquences possibles

C ’est un véritable séisme. Cette annonce découple l ‘écosystème GPU dominant de NVIDIA des architectures CPU historiques. Cela signifie que les datacenters pourraient potentiellement construire des clusters d ‘IA haute performance en utilisant des CPU RISC-V moins chers, ouverts et personnalisables, sans payer de frais de licence à Intel ou ARM. Cette décision pourrait accélérer massivement l ‘adoption de RISC-V dans le monde des serveurs et remodeler fondamentalement le paysage concurrentiel de toute l ‘industrie des semi-conducteurs.

How One Move Could Topple Intel, AMD, and ARM - TECHi Two Takes

Cette manœuvre est d ‘une grande finesse stratégique. NVIDIA ne fait pas que supporter un standard ouvert, il l ‘utilise comme une arme pour affaiblir ses concurrents sur le marché des CPU (Intel, AMD) et son ancienne cible d ‘acquisition (ARM). En rendant moins cher et plus flexible la construction de systèmes autour de son produit principal (les GPUs), NVIDIA transforme le CPU hôte, qui était un composant obligatoire à forte marge, en une pièce interchangeable et banalisée. C ’est une façon d ‘utiliser un standard ouvert pour perturber le modèle économique de ses concurrents, tout en cimentant sa propre position au sommet de la chaîne de valeur de l ‘IA.

  • Les réactions des acteurs du libre

La communauté RISC-V est en ébullition, voyant cela comme la validation ultime de leurs efforts d ‘écosystème et de standardisation. Les analystes de l ‘industrie y voient un coup de maître stratégique de la part de NVIDIA pour renforcer encore sa domination sur les GPU en banalisant le CPU hôte, ce qui constitue une menace directe pour les activités de datacenter d ‘Intel et d ‘AMD. Quelques voix s ‘élèvent pour s ‘inquiéter que NVIDIA n ‘étende sa propre forme de verrouillage propriétaire (CUDA) dans le monde RISC-V, mais le sentiment général est extrêmement positif pour l ‘ISA ouvert.

  • Lien direct vers la source officielle

[https://riscv.org/ecosystem-news/2025/07/nvidia-to-bring-cuda-platform-support-to-the-risc-v/]{.underline}

L ‘Écosystème en Mouvement

Pour finir, on prend un peu de hauteur pour regarder les grands mouvements qui animent l ‘écosystème : la standardisation de l ‘IA et les batailles idéologiques qui façonnent le paysage de l ‘open source.

Linux Foundation et AGNTCY : Vers un “Internet des Agents "

  • Contexte pour situer l ‘info

On l ‘a vu avec “Big Sleep " de Google ou l ‘agent IA de Docker : les entreprises développent des agents d ‘intelligence artificielle puissants, mais souvent dans des silos. Pour éviter la fragmentation et le verrouillage propriétaire, le besoin d ‘un standard de communication commun devient critique.

  • La news avec des détails techniques

Le 29 juillet 2025, la Fondation Linux a accueilli le projet AGNTCY (prononcez “agency “). Initialement un projet open source de Cisco, il est maintenant soutenu par un consortium de poids lourds incluant Dell, Google Cloud, Oracle et Red Hat.

Linux Foundation Newsletter: August 2025

AGNTCY fournit une infrastructure ouverte pour quatre piliers : la découverte d ‘agents (une sorte de DNS pour les IA), l ‘Identité des agents (pour la sécurité), la Messagerie (via le protocole SLIM) et l ‘Observabilité (pour le débogage).

CISCO Gifts AGNTCY Project to Linux Foundation to Standardize AI Agent Communication

Il est conçu pour être interopérable avec d ‘autres standards, comme le protocole Agent2Agent (A2A) de Google.

  • Les conséquences possibles

L ‘objectif d ‘AGNTCY est de créer la couche fondamentale d ‘un “Internet des Agents “, où des systèmes autonomes de différents fournisseurs pourraient collaborer de manière sécurisée et efficace. C ’est une étape proactive et cruciale pour garantir que l ‘avenir de la collaboration entre IA se construise sur des standards ouverts, et non sur des API propriétaires.

  • Les réactions des acteurs du libre

L ‘arrivée du projet au sein de la Fondation Linux a été largement saluée comme une garantie de gouvernance neutre et communautaire. C ’est perçu comme une brique d ‘infrastructure essentielle pour libérer le plein potentiel de l ‘IA agentique dans des domaines variés comme l ‘automatisation informatique, la cybersécurité, la finance ou la santé.

  • Lien direct vers la source officielle

[https://www.linuxfoundation.org/press/linux-foundation-welcomes-the-agntcy-project-to-standardize-open-multi-agent-system-infrastructure-and-break-down-ai-agent-silos]{.underline} ^78^

La Guerre des Licences Fait Rage

  • Contexte pour situer l ‘info

Un conflit majeur agite le monde de l ‘open source depuis quelques années : la tendance de certaines entreprises, souvent sous la pression de leurs investisseurs, à abandonner les licences approuvées par l ‘OSI pour des licences “source-available " plus restrictives, comme la Business Source License (BSL). On l ‘a vu par le passé avec Terraform de HashiCorp, Redis ou Elasticsearch.

  • La news avec des détails techniques

Cette tendance, surnommée “turbulation “, a continué d ‘être un sujet de débat brûlant cet été.

Open Source in 2025: Strap In, Disruption Straight Ahead

Le cœur du problème est que la BSL et les licences similaires restreignent l ‘usage commercial, notamment par les fournisseurs de cloud, ce qui est contraire aux principes fondamentaux de l ‘open source.

How’s that open source licensing coming along?

En réponse, la communauté continue de s ‘organiser autour de “forks " de ces projets, qui conservent la licence open source originale. L ’exemple le plus marquant est OpenTofu, le fork de Terraform, qui est soutenu par la Fondation Linux et poursuit un développement actif

  • Les conséquences possibles

Cela crée un écosystème fracturé, avec deux versions parallèles d ‘outils populaires : une version contrôlée commercialement et une version communautaire et open source. Les entreprises doivent maintenant être beaucoup plus vigilantes et auditer attentivement les licences de leurs dépendances logicielles.

Ce conflit met en lumière une trajectoire de collision fascinante. D ‘un côté, la pression interne des entreprises pour la rentabilité les pousse vers des licences restrictives comme la BSL. De l ‘autre, la pression externe des régulateurs comme le CRA (Cyber Resilience Act) européen exige plus de transparence et de sécurité collaborative. Un projet contrôlé par un seul vendeur sous une licence restrictive pourrait avoir du mal à construire la communauté large et transparente nécessaire pour répondre aux exigences du CRA. À l ‘inverse, un fork communautaire, gouverné par une fondation neutre, est structurellement mieux aligné avec ces nouvelles demandes réglementaires. Les entreprises qui choisissent des licences restrictives pourraient donc gagner une bataille commerciale à court terme, mais créer un risque de conformité et de sécurité à long terme.

  • Les réactions des acteurs du libre

Le débat est passionné. Les partisans de la BSL affirment que c ’est un mal nécessaire pour financer le développement et empêcher les géants du cloud d ’exploiter leur travail sans contrepartie. La communauté open source traditionnelle y voit une trahison de l ‘éthique du libre, arguant que le véritable open source ne doit pas discriminer les usages, y compris commerciaux

  • Lien direct vers la source officielle

[https://www.theregister.com/2025/02/24/open_source_licensing/