CPUID, l’éditeur des utilitaires CPU-Z et HWMonitor, a été victime d’un hack ayant permis à des malandrins de distribuer un cheval de Troie à la place de ces deux outils. Les liens de téléchargement officiels ont été modifiés pour pointer vers des fichiers malveillants. L’attaque a eu lieu entre les 9 et 10 avril. La situation est désormais sous contrôle.
Screenshot des utilitaires CPU-Z et HWMonitor
Ces deux logiciels comptent des millions d’utilisateurs. CPU-Z est un outil d’identification des composants d’un PC, HWMonitor surveille les capteurs (température, ventilos, etc.). Ceux qui ont eu le malheur de télécharger ces utilitaires durant l’attaque se sont retrouvés avec une variante malveillante de HWiNFO, un outil de diagnostic créé par un autre développeur.
Le logiciel piégé, baptisé « HWiNFO_Monitor_Setup », installe un malware d’origine russe depuis un nom de domaine compromis, détaille vx-underground. Il agit de manière progressive en plusieurs étapes pour ne pas éveiller les soupçons, exécute ses actions directement dans la mémoire vive en évitant d’écrire sur le disque du PC, et utilise des techniques d’évasion pour échapper aux antivirus et aux systèmes de détection.
Le fichier compressé de l’application vérolée est tout de même identifié par une vingtaine d’antivirus, qui le classent comme un cheval de Troie ou un infostealer. Samuel Demeulemeester, alias Doc Teraboule, le développeur derrière CPU-Z et HWMonitor, a assuré que la faille avait été identifiée et corrigée.
Si l’enquête est toujours en cours, il semble qu’une fonction secondaire (une API annexe) a été compromise « pendant environ six heures entre le 9 et le 10 avril ». Doc TB précise à Next que les liens vers le fichier vérolé sont restés en ligne sur le site de CPUID entre 2 h et 8 h (heure française). Seules les dernières versions de CPU-Z et HWMonitor proposées sous la forme d’un fichier compressé .ZIP ont été touchés, pas les .EXE. Il précise aussi que l’app malveillante n’étant pas signée, elle déclenchait donc Windows Defender immédiatement à l’extraction. De quoi limiter l’impact de l’infection.
Important aussi à avoir en tête : les fichiers hébergés sur le serveur de CPUID n’ont pas été compromis, uniquement les liens du site web. Les mises à jour automatiques des logiciels n’ont pas été touchées. Concernant l’attaque en elle-même, son envergure était a priori prévue pour être plus importante encore, puisque les pirates sont parvenus à compromettre les clés TLS privées en exploitant une faille Apache (les certificats compromis ont été révoqués).
Le développeur, toujours à pied d’œuvre, a pu réagir rapidement grâce aux experts en sécurité (et Reddit !) qui lui ont donné un coup de main.
Faire dire ce qu‘on fait. et essayer de faire ce qu’on a fait dire
« Moi aussi, moi aussi, moi aussi » ! C’est la première réaction que nous avons eue face aux récentes « fuites » des plans d’OpenAI pour contrer Mythos d’Anthropic. L’entreprise de Sam Altman veut marquer sa différence sur deux plans – la puissance de calcul et les performances – tout en copiant Anthropic avec un nouveau palier intermédiaire à 100 euros par mois.
Anthropic roi de la com’ sur Claude ?
Anthropic sait jouer avec les médias – certains diraient manipuler –, c’est une certitude. Nous l’avons d’ailleurs longuement expliqué dans une précédente actualité sur les annonces « sensationnelles » des derniers mois et la « fuite » de plusieurs milliers de documents sur Mythos.
La fuite de Claude Code était différente puisqu’elle ne fait pas seulement le jeu d’Anthropic mais aussi celui de ses concurrents qui peuvent étudier de près le fonctionnement de l’IA générative. Cette fois-ci, Anthropic avait tenté en vain de faire retirer le code source, alors qu’elle surfait gentiment sur la fuite de Mythos. Deux salles, deux ambiances.
Il reste 85% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Meta gêné aux entournures. Le géant des réseaux sociaux a nettoyé Facebook, Instagram, Threads et Messenger de dizaines de publicités pour des firmes d’avocats proposant leurs services… contre Meta. Fin mars, l’entreprise et YouTube étaient condamnés par une cour californienne à verser un total de 6 millions de dollars à une jeune plaignante souffrant de troubles de la santé mentale suite à son usage de leurs services.
Il a été démontré que Meta et YouTube avaient mis en place des fonctions visant à créer une dépendance à leurs plateformes. Les deux groupes ont annoncé faire appel, mais tout de même : cette décision de justice pourrait faire jurisprudence.
On a même parlé d’un moment « big tobacco » pour ces réseaux sociaux, en référence à ces grands procès des années 90 qui ont établi la responsabilité des fabricants de cigarettes, non seulement pour les dégâts provoqués par leurs produits sur la santé, mais aussi pour les mécanismes d’addiction qu’ils avaient eux-mêmes contribué à mettre en place.
Évidemment, la comparaison n’est pas flatteuse et Meta ne veut absolument pas être pris dans cette nasse. Les appels confirmeront ou infirmeront la décision judiciaire, mais sans attendre, les avocats spécialisés dans les litiges cherchent à en tirer profit. Des publicités ont ainsi commencé à fleurir sur les réseaux sociaux du groupe, pour recruter de nouveaux plaignants en vue de constituer des actions collectives. Ces procédures (« class actions ») peuvent déboucher sur des indemnisations substantielles, synonymes d’honoraires substantiels.
Dans une de ces pubs repérées par Axios, on peut lire : « Anxiété. Dépression. Dépendance. Automutilation. Ce ne sont pas de simples phases de l’adolescence — ce sont des symptômes liés à l’addiction des enfants aux réseaux sociaux. Les plateformes le savaient et ont continué à cibler les plus jeunes malgré tout. » Meta n’a pas apprécié, et a supprimé ces réclames. Quelques-unes seraient toujours actives, mais l’entreprise veille au grain.
Meta s’appuie sur une clause de ses conditions d’utilisation qui lui permet de supprimer des contenus « si nous estimons que c’est raisonnablement nécessaire pour prévenir ou limiter une utilisation abusive de nos services ou des conséquences juridiques ou réglementaires défavorables pour Meta ».
Un porte-parole confirme que l’entreprise supprimera les publicités visant à recruter des plaignants sur la base de cette décision de justice. « Nous ne permettrons pas à des avocats spécialisés dans les litiges de tirer profit de nos plateformes tout en affirmant qu’elles sont nocives. »
L’Agence nationale des fréquences (ANFR) a demandé à deux fabricants d’équipements réseau de rappeler un routeur Wi-Fi commercialisé sur le sol français en raison de manquements constatés au niveau des conditions d’utilisation du spectre radio dans la bande des 5 GHz.
Les deux appareils concernés sont le routeur Mantbox 52 15S de Mikrotik et le Wavlink Aerial HD6 AX1800. Les deux sociétés qui les commercialisent sont formellement invitées à retirer les références correspondantes du marché, et à rappeler les routeurs déjà vendus. L’ANFR rappelle qu’en l’absence de réponse adaptée de la part du fabricant, il incombe au distributeur de prendre lui-même les mesures de retrait et de rappel nécessaires.
Mikrotik mANTBox 52 15 s
L’ANFR ne précise pas la nature exacte des manquements constatés, mais donne un indice sur ses motivations : « L’utilisation de la bande 5 GHz repose notamment sur la mise en œuvre de mécanismes de partage du spectre visant à garantir la coexistence entre différents services et applications. Leur non-respect est susceptible de provoquer des brouillages préjudiciables, en particulier vis-à-vis de systèmes sensibles comme les radars météorologiques. »
Les deux routeurs concernés sont des appareils destinés au marché entreprise, et adaptés à une installation en extérieur. Le Mikrotik mANTBox 52 15 s est considéré comme en fin de vie par son fabricant.
La Wii est un Mac comme un autre, la preuve : la vénérable console de Nintendo peut faire tourner Mac OS X ! Il n’y avait fondamentalement aucun obstacle insurmontable, il suffisait « juste » de plonger les mains dans le cambouis très profondément. Bryan Keller, développeur de son état, avait cette envie depuis l’université, en 2013. Mais difficile de se lancer dans un tel projet sans une solide motivation (et un peu de temps devant soi).
Le déclic est arrivé l’an dernier, lorsqu’il a appris que Windows NT avait été porté sur la Wii. La console est ouverte à la bidouille : Linux et NetBSD peuvent ainsi fonctionner dessus. Porter Mac OS X (10.0 Cheetah, la première version du système d’exploitation de 2001) n’était pas, sur le papier, complètement farfelu. Après tout, la Wii tourne avec un processeur PowerPC 750CL, une évolution du PowerPC 750CXe utilisé dans l’iBook G3 et présent dans certains modèles d’iMac G3.
Côté logiciel, Mac OS X repose sur un cœur open source (Darwin) dont les composants peuvent être modifiés pour permettre aux éléments propriétaires, comme le Finder, le Dock et les apps d’Apple, de tourner sans avoir à les modifier. Sur la Wii, une partie du travail a été mâché grâce au jailbreak de la console.
Il a fallu ensuite se plonger dans les spécificités matérielles de la console, comme par exemple Hollywood. Ce système-sur-puce intègre un coprocesseur ARM pour que le processeur de la Wii puisse communiquer avec son GPU, la carte SD, le stockage, le Wi-Fi, le Bluetooth, etc. Bryan Keller a développé un pilote pour Hollywood, mais aussi pour le lecteur de carte SD afin de booter sur Mac OS X.
Une fois ces bases posées, le système tentait bien de lancer l’interface graphique de Mac OS X, mais sans pilote adapté, impossible d’afficher quoi que ce soit correctement. Le composant WindowServer, chargé de gérer l’affichage, refusait tout simplement de fonctionner. Le bidouilleur a dû s’attaquer à un élément fondamental : le framebuffer. C’est une zone de mémoire vive contenant les données de chaque pixel affiché à l’écran. Faute de pilote compatible avec le matériel de la Wii, il a donc fallu en écrire un de toutes pièces pour permettre à Mac OS X d’afficher son interface.
On vous passe les autres péripéties techniques qui ont occupé Bryan Keller de longues heures (jours/semaines). Le résultat est là : Mac OS X tourne donc sur une Wii, qui prend même en charge un clavier et une souris via son port USB. « Il y a quelque chose de profondément satisfaisant dans le fait de réussir quelque chose dont on n’était même pas sûr, au départ, que ce soit possible », explique-t-il.
Pour les amateurs qui voudraient s’occuper le temps d’un week-end, le développeur a publié tout l’attirail logiciel de sa solution wiiMac sur GitHub.
L’État affiche ses ambitions en matière de souveraineté numérique, avec une première décision aux accents symboliques : la Dinum, sa direction interministérielle du numérique, se prépare à passer de Windows à Linux sur ses postes de travail. Elle coordonnera par ailleurs les travaux préparatoires des ministères et opérateurs publics, auxquels est confiée la mission de formaliser leur plan de réduction des dépendances extra-européennes d’ici l’automne.
Après les paroles, place aux actes ? Dans la foulée de son plan d’action dédié à la cybersécurité des établissements publics, l’État a dressé jeudi un panorama de ses nouveaux engagements en matière de « souveraineté numérique », présentée comme une réduction des « dépendances extra-européennes ».
Synthétisés dans un communiqué, ces engagements s’ouvrent par une première décision : la direction interministérielle du numérique (Dinum) va ainsi basculer ses postes de travail de Windows vers Linux.
La distribution retenue n’a pas été précisée, mais la Dinum développe en propre un projet de système d’exploitation sécurisé, basé sur NixOS et baptisé Sécurix. « Grace à NixOS, ce modèle de PC sécurisé est ré-instantiable pour des cas d’usages variables: poste multi-agent, poste multi-niveaux, poste en intranet seulement, etc. avec des équipes différentes, des souches de VPN différents », décrit le projet. Reste à voir si le logiciel, actuellement au stade de l’alpha et sans support proposé à date, est considéré comme suffisamment robuste pour un déploiement en production ?
En attendant, avec 234 agents inscrits à l’effectif, cette migration revêt une dimension essentiellement symbolique, mais elle se veut le signal d’une impulsion concrète, que la Dinum devra s’efforcer de faire infuser dans les différents ministères et opérateurs publics.
Des plans d’action dans chaque ministère d’ici l’automne
Elle est en effet chargée de coordonner un « plan interministériel de réduction des dépendances extra-européennes », dans le cadre duquel chaque établissement concerné doit formaliser son propre plan d’action d’ici l’automne. Les axes de travail évoqués sont les suivants : « poste de travail, outils collaboratifs, anti-virus, intelligence artificielle, bases de données, virtualisation, équipements réseau ».
« Ces plans d’action permettront de donner de la visibilité quant aux besoins de l’État à la filière industrielle du numérique, qui dispose d’atouts majeurs qu’il convient de valoriser par la commande publique », promettent les services de la Dinum. Une forme de gage de confiance par rapport aux attentes exprimées par les acteurs français du logiciel et du service informatique, mais aussi une réponse indirecte aux virulentes critiques émises en octobre 2025 par la Cour des comptes.
Cette dernière fustigeait notamment le manque de coordination entre les différents services de l’État, la sous-utilisation des clouds interministériels déjà déployés et l’absence d’une réelle stratégie chiffrée (en sens financier) en matière de souveraineté numérique.
En attendant de juger sur pièce des plans d’action attendus pour l’automne, la méthode adoptée se veut une réponse à la problématique soulevée en matière de coordination. Les annonces gouvernementales font d’ailleurs suite à un séminaire interministériel qui a également associé des opérateurs publics et privés. Avec des échanges fructueux, selon la Dinum :
« Le séminaire a permis de lancer une nouvelle méthode pour sortir des dépendances en formant des coalitions inédites associant ministères, grands opérateurs publics et acteurs privés. Cette démarche vise à fédérer les énergies publiques et privées autour de projets précis, en s’appuyant notamment sur les communs numériques et les standards d’interopérabilité (initiatives Open-Interop, OpenBuro). »
Il appartiendra par ailleurs à la direction des achats de l’État (DAE) de cartographier les dépendances aux solutions extra-européennes, pour « affiner » un objectif chiffré de réduction qui n’a, pour l’instant, pas été communiqué.
L’Assurance maladie adopte certains services de LaSuite
Ses postes de travail tournent toujours sous Windows, mais la Caisse nationale d’assurance maladie a annoncé le 1er avril dernier le déploiement prochain de certains services issus de LaSuite auprès de ses 80 000 agents. Rappelons que LaSuite, ou la Suite numérique, est un ensemble d’outils et de services développés en interne par la Dinum, en open source et à destination des établissements publics.
« La convention signée aujourd’hui marque une nouvelle étape : elle prévoit le développement de fonctionnalités spécifiques aux besoins de l’Assurance Maladie, une intégration renforcée de LaSuite dans les processus métiers de la Cnam, ainsi qu’une contribution active de la Cnam à la feuille de route technique de la solution », indiquait alors l’organisme, sans préciser le périmètre exact de la migration.
Reste à voir ce que décidera la Cnam pour le reste de ses outils, et dans quelle mesure les solutions intégrées à LaSuite seront susceptibles d’entraîner le décommissionnement de technologies extra-européennes. Aujourd’hui, la Cnam exploite par exemple Exchange et Sharepoint (Microsoft), avec un hébergement assuré en propre, protégé par des solutions Proofpoint (US) et Trend Micro (Japon).
Google et Oracle proposent des VM gratuites, sans limite de durée. Elles sont chiches en caractéristiques techniques, mais c’est largement suffisant pour installer un gestionnaire de mots de passe comme Vaultwarden, et ainsi en profiter gratuitement. Next vous explique les conditions et détaille la procédure.
Nous avons déjà présenté plusieurs hébergeurs proposant des VPS (d’autres arrivent) pour une poignée d’euros par mois, de quoi disposer d’un petit serveur à moindre coût pour héberger quelques projets. Nous avons aussi mis en ligne un tuto pour renforcer la sécurité face aux milliers d’attaques que subissent les machines chaque jour.
Mais il existe aussi des offres gratuites. Oui, vraiment gratuites dans le sens où elles n’ont pas une durée ou un montant prédéfini. Attention, cela ne veut pas dire pour autant qu’elles seront éternellement gratuites, les conditions peuvent évoluer et changer.
Dans le domaine des VPS, Google et Oracle proposent tous les deux des machines virtuelles gratuites. Il y a quelques points communs, notamment l’absence de support technique (les forums communautaires restent accessibles), mais les caractéristiques techniques et conditions d’utilisation sont bien différentes entre les deux. Oracle est le plus strict et se réserve notamment le droit de récupérer des instances qu’il juge « inactives ». On vous explique.
Google Free Tier avec une instance de VM e2-micro gratuite
Il reste 90% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Après le commerce en ligne et le cloud computing, Amazon pourrait-il devenir un vendeur de puces, et donc un concurrent direct de NVIDIA ? L’hypothèse est explicitement évoquée par Andy Jassy, CEO d’Amazon, dans sa lettre annuelle aux actionnaires, publiée le 9 avril.
Il y décrit comment les semiconducteurs sont devenus une activité de premier plan pour le groupe, avec un impact financier loin d’être anecdotique, même s’il ne transparait pas directement dans le compte de résultat. Les puces conçues par Amazon sont en effet aujourd’hui destinées, de façon quasi exclusives, aux datacenters et services Amazon, à commencer par Bedrock. Elles n’en représentent pas moins, selon Jassy, une activité supérieure à 20 milliards de dollars sur 2025, avec une croissance annuelle à trois chiffres.
« Si notre activité de puces était indépendante et vendait les puces produites cette année à AWS et à d’autres tiers (comme le font d’autres leaders du marché), notre chiffre d’affaires annuel avoisinerait les 50 milliards de dollars, écrit Andy Jassy, avant d’ouvrir la porte à une possible mise sur le marché : La demande pour nos puces est telle qu’il est fort probable que nous en vendions des racks entiers à des tiers à l’avenir. »
Amazon a présenté les puces Trainium 3 fin 2025
Le CEO illustre à dessein son propos en rappelant l’expérience déjà acquise avec ses processeurs Graviton, lancés en 2018. « Dans le domaine des processeurs, la quasi-totalité des charges de travail s’exécutait sur des puces Intel jusqu’à l’invention de Graviton en 2018. Graviton, qui offre un rapport prix/performances jusqu’à 40 % supérieur à celui des autres processeurs x86, est désormais largement utilisé par 98 % des 1 000 principaux clients EC2 ».
Les puces Trainium 3 annoncées fin 2025 et les futures Trainium 4 connaitraient des trajectoires similaires. Andy Jassy affirme ainsi que la production de Trainium 3 est déjà quasi intégralement vendue en interne, et qu’une part significative du contingent Trainium 4 est déjà réservée, alors que la production de masse n’est attendue que d’ici 18 mois.
Si l’interne reste présenté comme la priorité numéro un, Amazon n’exclut donc pas de mettre ses puces directement sur le marché, ce qui serait à la fois une façon de s’ouvrir un nouveau marché et d’améliorer ses économies d’échelle. Une stratégie déjà envisagée par Google : le moteur de recherche a en effet commencé à proposer ses TPU à des acteurs tiers du cloud computing tels que Crusoe, CoreWeave ou Fluidstack. La vente devient ainsi une alternative au modèle traditionnel de location de ressources qui constitue le socle des offres AWS ou GCP.
L’arrivée d’Amazon sur le marché de la fourniture de composants dédiés à l’IA serait une pierre lancée dans le jardin de l’actuel leader du marché. « Nous entretenons un partenariat solide avec NVIDIA, nous aurons toujours des clients qui choisissent d’utiliser des solutions NVIDIA et nous continuerons à faire d’AWS la plateforme de choix pour exécuter des solutions NVIDIA. Cependant, les clients recherchent un meilleur rapport prix/performances. Nous avons déjà connu cette situation. » prévient Andy Jassy.
Mastodon a donné jeudi un avant-goût de la prochaine fonctionnalité phare de sa version 4.6, pensée principalement pour accompagner les nouveaux utilisateurs dans leur découverte du fédivers : les Collections. Ouvertement inspirées des « starter packs » proposées par Bluesky, ces collections ont vocation à réunir au sein d’une même enveloppe un ensemble de comptes à suivre.
L’implémentation se veut cependant plus fine que celle adoptée par Bluesky : Mastodon prévoit en effet un système permettant à l’internaute de consulter les Collections auxquelles son compte a été ajouté et éventuellement d’en disparaitre, sans avoir à bloquer la personne qui en est à l’origine. Mastodon fait par ailleurs le choix de limiter ses Collections à 25 comptes, sans s’interdire d’étendre cette limite plus tard.
« Sur Mastodon, les Collections continueront de privilégier la qualité à la quantité. Nous pensons que des Collections plus petites permettront de réduire les comportements de spam parfois observés sur Bluesky (où les Packs de démarrage sont limités à 150 comptes) », commente Imani Joy, responsable du design dans la nouvelle équipe qui préside aux destinées du projet, selon qui la bonne formule se situe sans doute quelque part entre 25 et 80 comptes par liste. « Cette fourchette reste large, et nous avons choisi de commencer par la limite inférieure car il est techniquement beaucoup plus simple de l’augmenter ultérieurement que de la réduire ».
Création d’une Collection sur Mastodon
Avec ces Collections, Mastodon offre donc la possibilité de partager publiquement une sélection de comptes à suivre, là où les « listes » disponibles de longue date sont à usage privé, et le resteront vraisemblablement. « De nombreuses personnes ont demandé des listes publiques et partageables, mais nous ne disposons pas actuellement de l’infrastructure nécessaire pour développer un système d’une telle envergure », indique Imani Joy.
Les Collections peuvent à ce stade être partagées publiquement via un lien, mais il n’est pas encore prévu de les rendre accessibles via la recherche ou les outils de découverte. À terme, elles devraient toutefois être proposées comme outils de suggestion aux administrateurs d’instance.
Mastodon indique par ailleurs préférer ne pas proposer, pour l’instant, de bouton permettant de suivre automatiquement tous les comptes d’une Collection. « Nous envisageons cette possibilité, mais nous souhaitons l’aborder avec prudence. Nous avons constaté que certains utilisateurs de Bluesky s’abonnaient massivement à des comptes issus de packs de démarrage obsolètes, pour ensuite se retrouver avec un flux d’actualités de qualité médiocre ».
La version 4.6 est en cours de déploiement sur l’instance mastodon.social, et fera l’objet d’une diffusion plus large dans les prochaines semaines.
Little Snitch est un utilitaire bien connu des utilisateurs de Mac. L’outil surveille et contrôle les connexions sortantes des applications installées sur sa machine. La première version remonte à 2003, ce qui ne rajeunira personne, et les mises à jour régulières distribuées par le studio autrichien Objective Development ont achevé d’en faire un logiciel essentiel sur la plateforme. C’est donc une petite surprise de voir débouler une version Linux ! Cette mouture est en fait la conséquence d’un besoin personnel du développeur Christian Starkjohann, qui a migré sur Linux et qui s’est senti « tout nu » sans Little Snitch.
Comme sur Mac, Little Snitch sur Linux révèle l’activité réseau des applications, et donne à l’utilisateur la possibilité d’agir, c’est-à-dire de bloquer la connexion si elle n’a pas été autorisée. L’application permet de voir la manière dont les logiciels interagissent avec les serveurs, et lesquels. On a également l’accès à l’historique du trafic ainsi que des volumes des données échangées.
Little Snitch sur Linux.
Avec l’aide de listes de blocage, Little Snitch est en mesure de bloquer d’un coup des catégories de trafic indésirable. Ces listes peuvent être téléchargées depuis des sources distantes, et le logiciel se charge de les mettre à jour automatiquement. Attention cependant, le format .lsrules de la version macOS n’est pas compatible. L’utilisateur a aussi la possibilité de créer ses propres règles pour cibler un processus ou un port spécifique.
Le logiciel peut être configuré pour réclamer une authentification préalable de l’utilisateur, pour éviter toute manipulation malintentionnée. Les développeurs soulignent que sur Linux, Little Snitch est conçu pour la confidentialité, mais pas pour la sécurité contrairement à la version Mac qui offre de solides garanties dans ce domaine.
La base sur laquelle repose le logiciel est eBPF, un mécanisme du noyau analysant les flux réseau qui impose des contraintes strictes en termes de stockage et de complexité des programmes. Quand le trafic est important, le suivi des connexions perd en fiabilité et certaines informations ne peuvent être reconstituées qu’approximativement, explique le studio. Sur Mac, il est possible d’inspecter les paquets pour réaliser les associations d’une manière plus fiable.
L’interface de Little Snitch est une web app (le logiciel en lui-même est développé en Rust). Un choix qui peut paraitre curieux pour un tel outil, mais qui permet de surveiller les connexions réseau d’un serveur Linux distant à partir de n’importe quel appareil. L’application a trois composants : le programme du noyau eBPF et l’interface web sont disponibles en open source sur GitHub, le démon est quant à lui propriétaire. Mais il est autorisé de l’utiliser et de le redistribuer gratuitement.
Linux ne manque pas d’outils de surveillance des connexions réseau, à l’image d’OpenSnitch, sans oublier les outils en ligne de commande. Mais comme sur Mac, Little Snitch facilite la vie des utilisateurs qui auront sous les yeux une seule interface pour observer le trafic réseau, et pour le bloquer le cas échéant. Le logiciel, compatible avec le noyau 6.12 de Linux et au-delà, est gratuit et il le restera pour toujours, promet Objective Development.
Au bout de 49 jours, 17 heures, 2 minutes et 47 secondes, un Mac resté allumé tout ce temps commencera à perdre sa connexion réseau. La seule solution ? Le redémarrage de l’ordinateur. En cause : un problème d’horloge interne…
Une « bombe à retardement », c’est ainsi que Photon, un service qui connecte des agents IA à iMessage d’Apple, qualifie sa découverte sur Mac. L’image est parlante, mais un rien exagérée car il suffit d’un redémarrage pour que tout revienne à la normale. Néanmoins, cette « date d’expiration » peut représenter un sérieux problème dans les organisations qui ont besoin de faire tourner des Mac en continu.
Une horloge interne en panique
Le noyau XNU de macOS en charge des ressources du Mac, s’appuie sur un compteur interne pour suivre le temps dans la gestion des connexions réseau, sous la forme d’un entier non signé sur 32 bits. Il peut donc contenir des valeurs allant de 0 à 4 294 967 295 (2³²). Si on se sert d’un entier non signé de 32 bits pour compter le temps en millisecondes, le compteur peut donc aller jusqu’à 4 294 967 secondes, soit 49 jours, 17 heures, 2 minutes et 47 secondes. Au-delà ? Ça dépend des cas : retour à zéro, plantage…
Photon a découvert que sur Mac, une vérification mal conçue dans le noyau empêche le système de reconnaître correctement ce basculement après les 49 jours, 17 heures… Tant que le compteur peut augmenter, tout fonctionne normalement. Mais quand il atteint sa limite et repart de zéro, la machine se grippe. macOS considère alors, à tort, que le nouveau temps est « inférieur » à l’ancien et refuse de l’enregistrer.
Le sujet n’est pas nouveau et largement documenté. On le trouve par exemple dans le bug de l’an 2038 sur Linux. Un petit changement sur Debian depuis la version 13 a permis de résoudre le souci : la distribution utilise le format 64 bits (au lieu de 32 bits), de quoi repousser l’échéance de… 292 milliards d’années. Si on remonte dans le temps à l’époque de Windows 95, certains se souviendront peut-être que le système plantait aussi après 49,7 jours d’utilisation.
Résultat, l’horloge TCP reste figée à sa dernière valeur valide. Tous les mécanismes qui dépendent du temps, à l’image de la suppression des connexions fermées, cessent de fonctionner normalement. Il en va ainsi des ressources réseau qui dépendent des connexions TCP : elles s’accumulent jusqu’à saturation, ce qui rend impossible l’ouverture de nouvelles connexions.
Le redémarrage, ultime solution pour l’instant
Photon s’est rendu compte du problème en surveillant sa flotte de Mac qui font tourner plusieurs services iMessage. Des machines qui fonctionnent 24/7 et ne redémarrent qu’en cas de nécessité absolue. Plusieurs de ces Mac ont cessé d’établir de nouvelles connexions TCP 49,7 jours après leur dernier redémarrage.
« Les pings continuaient de fonctionner. Les connexions existantes restaient actives. Mais toute tentative nécessitant l’ouverture d’un nouveau socket TCP échouait », écrit le service. Seule solution : un redémarrage. Cela concerne donc les Mac fonctionnant en continu pendant plus de 49 jours et 17 heures sans redémarrer et qui ont une activité réseau TCP (tous les Mac connectés, au fond).
Selon Tidbits, il semblerait que le bug soit circonscrit à macOS Tahoe, la dernière version du système d’exploitation (macOS 26). Les précédentes moutures de l’OS ne seraient pas affectées, ce qui explique pourquoi le problème n’a jamais été remonté auparavant. Photon de son côté laisse entendre que le bug pourrait remonter à Catalina… Apple ne s’est pour le moment pas exprimé.
Par ailleurs, un Mac en veille devrait aussi repousser l’échéance fatale. De plus, sur un ordinateur peu sollicité, l’épuisement des ports peut aussi mettre beaucoup plus de temps pour devenir perceptible. Pour le grand public, ce n’est pas nécessairement un bug handicapant : même si l’habitude d’éteindre son ordinateur tous les soirs en partant du bureau s’est perdue, il arrive tout de même assez régulièrement de devoir redémarrer sa machine. Ne serait-ce que pour installer une mise à jour du système.
Pour savoir depuis quand un Mac est allumé, il suffit de saisir la commande uptime dans un Terminal :
Ce compteur défectueux posera davantage de problème dans des environnements professionnels, comme c’est le cas chez Photon mais aussi dans des entreprises qui se servent de Mac Pro ou de Mac Studio pour des tâches très longues (rendu, compilation, simulation…) ou au sein de structures hébergeant des Mac en colocation administrés à distance.
Ou encore dans les fermes de Mac mini pour le partage de calcul ou les infrastructures de test. Néanmoins, ces services évitent de faire tourner leurs serveurs Mac avec la version la plus à jour de macOS, pour des questions de sécurité et de fiabilité. Il n’empêche qu’il s’agit tout de même là d’un bug qu’Apple serait avisée de corriger rapidement.
Amazon ferme la porte de sa bibliothèque aux anciens Kindle. Les liseuses et les tablettes Kindle Fire sorties avant 2012 ne pourront plus accéder à la boutique de livres numériques à compter du 20 mai. Les bouquins déjà stockés sur ces appareils continueront d’être lisibles, mais il ne sera plus possible d’en acheter et télécharger de nouveaux.
Ces appareils se transformeront donc petit à petit en presse-papiers de luxe, ce d’autant qu’en cas de problème, une réinitialisation dans les paramètres d’usine rendra la liseuse ou la tablette complètement inutilisable. Il en ira de même si on a le malheur de retirer son compte de la liseuse : on ne pourra plus s’y reconnecter. Sur les Kindle Fire, les services autres que l’achat de contenus resteront fonctionnels.
L’obsolescence programmée de ces appareils concerne le Kindle de première génération, celui sorti en 2007, les Kindle DX/DX Graphite (2009/2010), le Kindle Keyboard (2010), les Kindle 4 et Kindle Touch (2011), ainsi que les Kindle 5 et Kindle Paperwhite 1ère génération (2012). Du côté des tablettes, sont touchées les Kindle Fire 1re et 2e génération (2011), Kindle Fire HD 7 et 8,9 (2012).
L’entreprise se justifie auprès d’Engadget : « Ces modèles ont été pris en charge pendant au moins 14 ans – certains jusqu’à 18 ans – mais la technologie a énormément évolué depuis… » Selon Amazon, la fermeture définitive du Kindle Store touchera 3 % des utilisateurs actuels. Pour faire passer la pilule, l’entreprise va contacter ces lecteurs en leur proposant une remise de 20 % sur une sélection de nouveaux modèles, ainsi qu’un crédit pour acheter des livres.
Si les tablettes d’Amazon ne sont pas forcément les plus durables du marché, les liseuses du constructeur sont des terminaux solides qui peuvent encore rendre bien des services. Ne plus pouvoir accéder à de nouveaux livres sur ces appareils – ce qui est leur seule et unique fonction – est pour le moins malheureux. Mais pas si étonnant au vu de la politique de verrouillage d’Amazon. Ainsi, depuis le 26 février 2025, la fonction de téléchargement et de transfert via USB depuis le site web du commerçant n’existe plus.
Celle-ci permettait de transférer par USB des livres Kindle (AZW3, KFX) téléchargés sur son ordinateur vers une liseuse de la marque. Amazon avançait des raisons de sécurité, en précisant que les nouveaux contenus pourront toujours être envoyés par Wi-Fi (un composant dont les Kindle ont été privés jusqu’en 2010 et le Kindle Keyboard).
On peut toujours transférer des fichiers sur une liseuse Kindle, y compris des PDF et des ePub, avec l’outil Send to Kindle, disponible sous forme d’application (à utiliser avec un câble USB) ou en ligne. Mais la limite est de 200 Mo. Le célèbre logiciel Calibre peut aussi être d’un précieux secours pour transférer des livres sur les Kindle ainsi qu’un grand nombre d’autres appareils.
Les possesseurs d’anciens Kindle qui ne veulent plus s’embêter à jongler avec les formats propriétaires et les verrous logiciels ont l’embarras du choix pour aller voir ailleurs. Les liseuses concurrentes des Kindle sont légion et, à l’instar des modèles de Kobo ou de PocketBook, les constructeurs affichent clairement leur soutien à des écosystèmes plus ouverts.
Réunis à Tours pour les Assises du journalisme, journalistes et autres professionnels des médias ont débattu avec chercheurs, juristes et le public des manières de faire face à la dégradation accélérée de l’espace informationnel.
« Nous avons le sentiment d’être pris entre le marteau russe et l’enclume des États-Unis. » C’est par ces mots que Jean-Marc Four, directeur de Radio France Internationale (France Médias Monde), a résumé la situation face à laquelle se trouve la station de radio publique, qui diffuse « en 17 langues » et touche « chaque semaine plus de 100 millions de personnes dans le monde ».
Ce 8 avril, aux Assises du journalisme de Tours, Jean-Marc Four participait aux côtés d’une quinzaine d’experts des enjeux de l’information et de ses manipulations à un vaste débat sur « le journalisme face à la guerre informationnelle ». Et les constats qui y ont été dressés, comme le vocable employé le laisse deviner, intiment à l’adaptation rapide.
La veille, Donald Trump lançait un ultimatum à l’Iran, menaçant d’ « anéantir la civilisation iranienne » si le détroit d’Ormuz n’était pas rouvert dans la nuit. S’appuyant sur cet exemple, la chercheuse à l’institut de recherche stratégique à l’école militaire (IRSEM) Maud Quessard soulignait que pour les armées, il est évident depuis longtemps que la guerre n’est plus seulement physique, mais aussi numérique et informationnelle. Elle rappelait aussi que le paysage informationnel peut servir à « gagner la guerre sans la faire », en particulier « dans le cadre de guerres non ouvertes ». Ce mécanisme peut même passer par la manipulation des perceptions, pour « amplifier la perception des conflits en cours ».
En d’autres termes, lors de ces discussions comme de celles qui réunissaient professionnels de l’information et public tourangeau, la veille, pour un échange titré « la vérité selon Trump et ses conséquences », l’ambiance des Assises était à la recherche de nouveaux repères.
Soirée d’ouverture des Assises du journalisme : « La vérité selon Trump et ses conséquences » / Mathilde Saliou
La tâche n’est pas simple : au monde médiatique de trouver des manières de traiter l’information au mieux, dans un contexte toujours plus dégradé économiquement (y compris sous la pression de l’IA), tout en s’équipant face aux menaces croissantes que posent, pour le débat public, les tentatives d’ingérences étrangères et les manipulations réalisées depuis le territoire national. Au passage, au monde médiatique aussi (avec l’aide d’autres écosystèmes) de sensibiliser le grand public à l’état du conflit informationnel en cours.
Nécessaire autocritique médiatique
Soulignant « l’accélération technologique » qu’incarne notamment l’intelligence artificielle, notamment parce qu’elle permet de « fabriquer du faux plus vrai que vrai », le directeur de la publication de Ouest France François-Xavier Lefranc appelle les professions journalistiques et médiatiques à « faire leur autocritique ».
Il reste 62% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Depuis quelques années, les fuites de données s’enchainent à vitesse grand V et les institutions officielles ne sont pas épargnées. Le gouvernement vient de mettre en ligne sa feuille de route des efforts prioritaires en matière de sécurité numérique de l’État. Elle comporte une quarantaine d’actions à mettre en place cette année.
Dès son introduction, le document – validé en concertation interministérielle – revient sur « les multiples intrusions et fuites de données qui ont affecté en 2025 les systèmes d’information des ministères et des établissements dont ils ont la tutelle ». Ces failles et fuites rappellent, s’il en est besoin, « la persistance de vulnérabilités graves dans l’ensemble de ces infrastructures ». Le document du jour vise à y apporter une réponse…
Conseiller numérique obligatoire et anticipation de NIS 2
Premier point du document : renforcer la gouvernance. Chaque ministère devra ainsi désigner un conseiller numérique en charge de la cybersécurité « dans le mois suivant la nomination du ministre »… de quoi éviter des blancs en cas de changements a répétition. Les ministères devront aussi s’assurer que la cybersécurité soit bien prise en compte à tous les niveaux. Avant le 30 juin 2026, ils devront ainsi avoir formalisé « une politique d’audit et de contrôle des systèmes d’information ». La mise en œuvre est programmée pour le 31 décembre 2026.
En vue de NIS 2, qui va bien finir par passer le cap de l’Assemblée nationale un jour ou l’autre, la politique de sécurité des systèmes d’information de l’État devra être mise à jour, au plus tard au premier trimestre 2027, pour « intégrer en anticipation le référentiel de règles ayant vocation à s’appliquer aux entités essentielles que créera NIS 2 ».
Sur l’homologation des systèmes d’information, la feuille de route précise que « tout système faisant l’objet d’une migration sur le cloud devra être considéré comme un nouveau système d’information et donc faire l’objet d’une homologation ». Avec le cloud dominé par des acteurs américains, cela soulève aussi des questions de souveraineté. La qualification SecNumCloud de l’ANSSI permet de s’assurer de l’étanchéité aux lois extraterritoriales (notamment étasuniennes et chinoises), pour rappel.
Supply chain, mise à jour, authentification… rappel des basiques
C’est dans l’air du temps avec les attaques qui se multiplient contre la « supply chain », le document demande aux ministères de mettre en place, d’ici au 30 juin 2026, « une politique de contrôle de la chaîne d’approvisionnement ».
Sur la question des mises à jour, ils devront définir des procédures d’installation des correctifs de sécurité d’ici au 30 juin 2026 et les mettre en œuvre avant la fin de l’année. Il est aussi question de « renforcer l’authentification et la gestion des accès ».
Autre mesure importante (et on pourrait presque dire qu’il est temps) : « Mettre en place d’ici le 31 décembre 2026 une authentification multi-facteur de l’ensemble des administrateurs de systèmes d’information ». Avec la gestion des mises à jour, ce sont des points basiques, qui devraient déjà être en place… mais force est de constater qu’il reste encore du travail. Le détail des manquements détaillé par la CNIL suite à la fuite et condamnation de France Travail par CNIL (5 millions d’euros d’amende) en est une preuve.
La feuille de route prévoit aussi de déployer « des dispositifs avancés de détection des attaques (EDR ou XDR) sur l’ensemble des postes de travail et sur l’ensemble des serveurs » avant la fin de l’année. Les ministères doivent aussi tester au moins une fois par an les plans de reprise d’activité.
Après un incident important (dont la définition reste à préciser), le ministère impacté « aura pour obligation de suivre les recommandations de l’ANSSI, puis 6 mois après l’incident d’adresser un point de suivi à l’ANSSI, au corps d’inspection et au Premier ministre ».
Vincent Strubel, patron de l’ANSSI, rappelait dans son bilan de la cybermenace en 2025 une autre réalité : le facteur humain et le « mode legacy » parfois laissé en place pour calmer la grogne des anciens utilisateurs. Nous avons « probablement devant nous un phénomène de coupure un peu brutale des systèmes un peu obsolescents », affirmait Vincent Strubel.
À surveiller de près : DNS, messageries et quantique
La feuille de route cible ensuite les DNS et messageries, utilisés par les pirates « pour introduire des codes malveillants dans les systèmes d’information » de l’État. Là encore, la feuille de route prévoit une action en deux temps : renforcer avant le 30 septembre 2026 la sécurité des DNS, « notamment par un recours accru au service interministériel DNS », et celle des systèmes de messagerie avant le 31 décembre 2026.
Dernier point, préparer la transition vers la cryptographie post-quantique. Pour rappel, la question n’est pas tant de savoir si un ordinateur quantique capable de casser des systèmes de chiffrement verra le jour, mais quand il sera opérationnel avec suffisamment de qubits.
Il est donc demandé aux ministères de faire cette année l’inventaire « de leurs données durablement sensibles pour lesquelles une mise en place de la cryptographie post-quantique sera prioritaire »… en espérant qu’elles n’aient pas déjà fuité, sinon c’est déjà trop tard.
Ils devront ensuite « déployer de la cryptographie post-quantique pour tous les systèmes d’information traitant d’information à diffusion restreinte avant fin 2030 ». Enfin, à partir de 2030, « ne déployer que des produits de chiffrement qui intègrent de la cryptographie post-quantique ».
L’ANSSI aussi a dévoilé sa feuille de route sur le post quantique, avec deux échéances. À partir de 2027 tout d’abord, l’Agence n’acceptera plus en entrée de qualification des produits de sécurité qui n’intègrent pas une cryptographie résistante à l’ordinateur quantique. Puis, à partir de 2030, « on recommandera et on imposera le cas échéant de ne plus acquérir de telles solutions ».
Quoi qu’il en soit, le « suivi opérationnel de la mise en œuvre de la feuille de route 2026 - 2027 sera assuré chaque mois en Comité interministériel de suivi de la sécurité numérique (CINUS), qui réunit les chaînes de sécurité des systèmes d’information des ministères sous l’égide de l’ANSSI ».
Spécialiste du clavier mécanique, Keychron fait un pas supplémentaire en direction de la communauté des makers avec la publication, sur GitHub, des modèles 3D utilisés dans la fabrication des principales références de son catalogue.
Pour la plupart de ses claviers, on peut ainsi télécharger les fichiers de CAO qui décrivent dans le détail la conception du boîtier, les découpes de la plate (la plaque située entre les commutateurs et le PCB), les spécifications des différents composants, etc.
Modèle 3D du Keychron Q10 – crédit Keychron
Selon les éléments concernés, Keychron propose des formats faisant office de standards industriels, a minima pour la visualisation, avec DXF (.dxf) ou DWG (.dwg) pour les plans, et STEP (.stp) pour la plupart des modèles 3D. Les internautes sont invités à enrichir le dépôt avec leurs propres contributions, qui peuvent prendre la forme de corrections apportées à des modèles existants, ou de configurations alternatives à celles commercialisées par Keychron.
« Nous pensons que la mise à disposition des fichiers matériels de production constitue une contribution significative à la communauté plus large du matériel et des claviers ! », se réjouit l’entreprise. Un élément manque toutefois à l’appel : Keychron ne partage pas le plan des PCB de ses claviers : sur ce volet électronique, les sources restent fermées.
Plan pour les découpes d’une plaque de clavier – crédit Keychron
Notons par ailleurs que si les sources de certains éléments matériels sont ouvertes, Keychron restreint explicitement la réutilisation commerciale : « Tous les fichiers de conception matérielle sont fournis exclusivement pour un usage personnel, éducatif et non commercial ».
Keychron avait déjà par le passé publié certains éléments de conception de ses claviers les plus populaires, mais sans étendre cet effort à l’ensemble de son catalogue comme ici (à l’exception de quelques modèles spécifiques comme son récent clavier céramique). L’entreprise exploite et collabore également de longue date à des firmwares ouverts comme QMK ou ZMK.
Sur X, l’entrepreneur Pavel Durov a réagi au dernier rapport de l’ONG AI Forensics en recourant à des schémas complotistes. L’étude décrit comment des réseaux de diffusion non consentie d’images à caractère sexuel tirent profit financier et social du fonctionnement de Telegram.La communication de Durov diffère largement des éléments initialement transmis par l’entreprise à Next.
« L’état profond européen nous dit (via des médias d’État et des NGO financées par Soros) que Telegram est un PROBLEME parce que des gens peuvent échanger des contenus d’AUTRES réseaux sociaux dans des groupes telegram PRIVES. Ces absurdités servent à justifier la surveillance (Chat Control) et la censure (DSA). »
C’est sur ce ton agressif, et ce recours à une idée (celle de l’État profond) et un nom (celui de George Soros) devenus classiques dans la complosphère que Pavel Durov a réagi sur X au travail de l’ONG AI Forensics. Ce 8 avril, cette dernière publiait un long rapport détaillant le fonctionnement des réseaux de partage et de diffusion d’images non consenties à caractère sexuel en Italie et en Espagne, très actifs sur Telegram.
Dans ses différents rapports annuels, l’ONG mentionne effectivement l’Open Society Foundations, réseau de fondations financées par le milliardaire George Soros, parmi d’autres sociétés philanthropiques qui participent à son financement. Depuis 2024, AI Forensics s’appuie par ailleurs sur deux contrats signés avec la Commission européenne (en collaboration avec d’autres organisations de la société civile) dans le cadre de l’application du règlement sur les services numériques (DSA).
Une communication bien plus agressive qu’au départ
Le tweet de Pavel Durov évoquant un « état profond » n’est en réalité que le premier d’une série de trois. En un thread qui vise à instiller le doute sur la qualité du travail mené par l’ONG, le fondateur de Telegram attaque aussi différents médias européens qui se sont fait l’écho du rapport, citant surtout une volée de médias français (l’AFP, Le Parisien, France 24, Ouest France et Le Figaro).
Il reste 70% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
S3 Files : aux frontières du stockage, les données sont ailleurs
Amazon Web Services vient d’annoncer le lancement de S3 Files, « un nouveau système de fichiers qui connecte de manière transparente n’importe quelle ressource de calcul AWS à Amazon Simple Storage Service (S3) ». Cette solution utilise d’autres technologies Amazon (EFS par exemple) et ne fonctionne donc que sur le S3 d’Amazon, pas avec d’autres stockages « S3 compatibles ».
S3 est, pour rappel, du stockage objet lancé par Amazon il y a 20 ans et qui est depuis devenu un standard de fait largement utilisé à travers le monde. Next utilise du S3 par exemple pour le To de stockage offert avec votre abonnement (et plus en fonction de votre ancienneté). S3 a beau être lancé par Amazon, le stockage maison S3 déployé par les hébergeurs sur leur propre infrastructure ne dépend d’aucune manière d’Amazon, qui n’a donc aucun accès aux données.
Revenons au fonctionnement du stockage S3, qui utilise des objets et des buckets. Un objet représente n’importe quel type de donnée (texte, vidéo…) et les objets sont réunis dans des conteneurs appelés buckets. Pour aller plus loin, nous avons pour rappel publié un dossier complet sur l’histoire et le fonctionnement de S3.
Stockage S3 vs système de fichiers : des différences fondamentales
Le fonctionnement du stockage S3 est différent des systèmes de fichiers classiques sur plusieurs points, comme le rappelle Sébastien Stormacq d’AWS dans le billet d’annonce de S3 Files : « Mon analogie préférée était de comparer des objets S3 à des livres dans une bibliothèque (on ne peut pas modifier une page, il faut remplacer tout le livre) alors que des fichiers sur votre ordinateur peuvent être modifiés page par page ». Pour modifier quelques octets dans un objet de 5 Go, il faut réécrire la totalité des données.
Selon l’entreprise, son nouveau service est le premier à « offrir un accès complet et performant à vos données S3 par un système de fichiers ». Les modifications faites sur la version système de fichiers sont automatiquement répercutées dans le bucket S3 (et vice-versa), avec des contrôles sur la synchronisation. S3 Files peut être associé à plusieurs ressources, « permettant le partage de données entre les clusters sans duplication ».
Les buckets S3 sont ainsi accessibles depuis Elastic Compute Cloud (EC2), Container Service (ECS), Kubernetes Service (EKS) et des fonctions AWS Lambda. Dans sa foire aux questions, Amazon précise que seuls les « general purpose buckets » sont compatibles avec S3 Files, pas les Tables, Vectors ou « directory buckets ».
S3 Files surfe sur NFS 4.1 et utilise POSIX
Les objets S3 sont accessibles « sous forme de fichiers et de répertoires, prenant en charge toutes les opérations du Network File System (NFS) v4.1 + telles que la création, la lecture, la mise à jour et la suppression de fichiers ». Amazon ajoute que « S3 Files utilise les permissions POSIX pour les fichiers et les répertoires ».
Ce n’est pas juste une présentation sous la forme d’une arborescence comme peuvent déjà le faire des clients S3, mais un changement plus en profondeur pour avoir un « vrai » système de fichiers, avec la gestion qui va avec. L’accès simultané à des données est géré avec une cohérence NFS close-to-open.
Amazon revendique des performances élevées avec son S3 Files, qui est basé sur Amazon Elastic File System (EFS) avec une latence de l’ordre de la milliseconde pour les données actives, c’est-à-dire celles déjà présentes dans le cache de S3 Files.
La synchronisation peut prendre « quelques minutes »
Attention, par contre à la synchronisation des données avec S3 qui prend du temps, comme l’indique AWS dans son exemple : « Lorsque je fais des mises à jour de mes fichiers dans le système de fichiers, S3 gère et exporte automatiquement toutes les mises à jour sous forme de nouvel objet ou de nouvelle version d’un objet existant dans mon bucket S3 en quelques minutes. Les modifications apportées aux objets du bucket S3 sont visibles dans le système de fichiers en quelques secondes, mais peuvent parfois prendre une minute ou plus ».
S3 Files utilise AWS Identity and Access Management (IAM) pour la gestion des contrôles d’accès et du chiffrement, avec TLS 1.3 lors du transit et un chiffrement au repos via Amazon S3 managed keys (SSE-S3) ou une clé de l’utilisateur avec AWS Key Management Service (KMS). Le billet de blog donne des exemples et des détails techniques. De la documentation est disponible par là.
S3 Files est dès à présent disponible dans toutes les régions AWS. Le service n’est évidemment pas gratuit : « Vous payez pour la portion de données stockée dans votre système de fichiers S3, pour les opérations de lecture de petits fichiers et toutes les opérations d’écriture sur le système de fichiers, ainsi que pour les requêtes S3 lors de la synchronisation des données entre le système de fichiers et le bucket S3 ». Les tarifs sont détaillés sur cette page (en anglais seulement pour le moment).
On m'a dit de venir, pas de venir avec des bagages, pourquoi ?
Le Sénat a voté mercredi 8 avril à l’unanimité la proposition de loi visant à instaurer une présomption d’utilisation de contenus culturels protégés par un droit d’auteur au niveau des éditeurs d’IA. Le texte, qui doit maintenant passer à l’Assemblée nationale, inverse donc le rapport de force, puisqu’en cas de contentieux, ce sera aux acteurs de la tech de prouver qu’ils n’ont pas exploité un contenu de façon illicite.
Beaumarchais a une nouvelle fois été convoqué sous les ors de la République mercredi 8 avril, lors des débats du Sénat autour de la proposition de loi « relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle ». Et les défenseurs du droit d’auteur n’ont pas été déçus, puisque l’article unique du texte a été adopté à l’unanimité, au terme d’une séance de débat plutôt consensuelle : le soutien à l’innovation ne doit pas se faire au détriment de la création culturelle et cette dernière doit être rémunérée à sa juste valeur dès lors qu’elle est exploitée.
Inverser la charge de la preuve pour forcer la transparence
Le texte adopté en première lecture dispose que, sauf preuve contraire, une œuvre protégée par un droit d’auteur ou un droit voisin « est présumée avoir été utilisée par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation ».
Autrement dit, si un ayant droit estime qu’une œuvre a été utilisée par un modèle (par exemple, parce qu’un chatbot est capable de citer des extraits d’un livre), c’est à l’opérateur de l’IA en question qu’il appartiendra de prouver qu’il n’a commis aucune utilisation irrégulière. Le texte instaure donc une inversion de la charge de la preuve, en instaurant une présomption d’exploitation.
« Ce ne sera plus au créateur de prouver le moissonnage de son œuvre, mais au fournisseur d’IA de prouver qu’il ne l’a pas utilisée. Notre objectif n’est pas de multiplier les procès, mais d’inciter les acteurs de l’IA à abandonner certains comportements de prédation pour un modèle fondé sur la transparence et la négociation. Aujourd’hui, les créateurs ne négocient pas ; ils subissent », a fait valoir en séance la sénatrice Agnès Evren (LR), auteure de la proposition de loi.
Elle a par ailleurs pris soin d’affirmer que ce renversement avait été validé par le Conseil d’État, et souligné que l’esprit de la proposition de loi rejoignait les recommandations formulées dans le récent rapport d’Alex Voss voté le 11 mars dernier au Parlement européen. Dans son texte, celui-ci invite en effet Bruxelles à « proposer l’établissement d’une présomption réfragable », mais il restreint cette dernière aux cas de non-respect d’un certain nombre d’obligations de transparence.
Le Sénat français va donc un cran plus loin, arguant du principe que ce renversement est indispensable pour contraindre les éditeurs d’IA à faire preuve d’une vraie transparence sur leurs données d’entraînement. « On nous oppose souvent le secret des affaires, ce bouclier dont les entreprises d’IA usent et abusent. Or si l’algorithme relève du secret industriel, les données pour le nourrir sont le fruit du travail d’autrui. La transparence n’est pas une menace pour l’innovation, c’est la condition de l’acceptabilité sociale de l’IA », a défendu Catherine Morin-Desailly (Union centriste).
Représenté par ses ministres de la Culture et de l’Intelligence artificielle et du numérique, le gouvernement a pour sa part tenu une position plus nuancée.
« Le Gouvernement partage l’objectif du mécanisme proposé par la commission, mais le contentieux ne peut pas constituer notre unique horizon, car il entraîne des risques : judiciarisation excessive, insécurité juridique prolongée, multiplication des procédures. Mieux vaut un bon accord qu’un mauvais procès », a prudemment avancé Catherine Pégard, ministre de la Culture.
Anne Le Hénanff, ministre déléguée chargée de l’intelligence artificielle et du numérique, a quant à elle plus fermement défendu le point de vue des acteurs de la tech :
« Avec une telle présomption, l’entreprise devra apporter la preuve négative de l’utilisation de données culturelles, via l’analyse de dizaines de téraoctets de données ; c’est tout simplement impossible ! Tous les acteurs économiques qui ont développé des modèles d’IA – entreprises du CAC 40, TPE-PME, start-up – risqueraient un contentieux, ce qui serait dévastateur pour notre économie ».
Elle aussi appelle à privilégier la négociation au contentieux, en s’engageant à soutenir « toutes les initiatives contractuelles entre les acteurs de l’IA et ceux de la culture », ainsi qu’à participer aux évolutions à venir du cadre européen, « car c’est en agissant au bon niveau que nous obtiendrons la sécurité juridique nécessaire ».
Négocier, mais autour de quelle table ?
L’attente est-elle entendable du point de vue des ayants droit, alors que les illustrations d’utilisation à grande échelle de contenus protégés se multiplient ? Dans le sillage du procès ouvert aux États-Unis contre Meta pour entraînement de ses modèles sur les contenus de la bibliothèque clandestine LibGen, plusieurs articles de Mediapart ont montré ces derniers mois le recours à des contenus protégés par l’entreprise française Mistral AI.
Plus récemment, une nouvelle enquête, publiée le 6 avril, démontre que des centaines de milliers d’ouvrages ou d’articles scientifiques accompagnés de la mention « tous droits réservés » figurent dans l’immense jeu de données finepdfs hébergé sur Hugging Face.
Au-delà de sa dimension contentieuse, la proposition de loi serait, dans ce contexte et pour ses promoteurs, un accélérateur visant à sortir du statu quo dont profitent les acteurs de l’IA.
« Il y a urgence, car le pillage continue. J’ai l’impression que quand on montre un peu de fermeté, certains, qui s’y refusaient, viennent à la table des négociations », estime Max Brisson (LR). Avec, déjà, des effets positifs, selon Laure Darcos (groupe Les indépendants), rapporteure du texte :
« Notre mécanisme, juridiquement solide et politiquement efficace, produit d’ores et déjà ses effets : le PDG de Mistral AI a proposé une contribution des entreprises d’IA en fonction de leur chiffre d’affaires pour accéder aux contenus protégés. »
Reste à voir si cette déclaration d’intention suffira à faire pencher la balance lors de l’examen du texte à l’Assemblée nationale.
Avec Muse Spark, son nouveau grand modèle de langage (LLM), Meta joue gros. Il s’agit non seulement de faire oublier l’échec de Llama, la précédente génération de LLM maison, mais aussi de justifier l’investissement maousse costaud dans le labo dédié à la « superintelligence ».
Llama 4, lancé il y a quasiment un an jour pour jour, n’a pas été le succès tant espéré par Mark Zuckerberg qui veut sa part du gâteau de l’IA générative. Pire encore, des soupçons de triche dans plusieurs benchmarks ont définitivement entaché la réputation du grand modèle de langage. Un affront pour le patron de Meta, qui digère toujours l’échec de sa stratégie du métavers.
Une muse pour le cerveau de Meta AI
Hauts les cœurs et les portefeuilles : loin de se laisser abattre par le flop de Llama, Meta a mis la main à la poche pour s’offrir la crème de la crème des spécialistes de l’IA. Débauchés dans toute l’industrie de la tech, ils ont à leur tête Alexandr Wang, l’ancien dirigeant de Scale AI, dont le géant des réseaux sociaux a pris le contrôle l’été dernier en échange de 14,3 milliards de dollars. Pour se transformer en place forte de l’IA, Meta a même laissé partir des vétérans, comme son directeur scientifique Yann LeCun.
Ces experts, regroupés au sein du « Meta Superintelligence Lab » (MSL), planchent sur la nouvelle marotte de Mark Zuckerberg, la « personal superintelligence ». Un concept pour le moins flou censé « aider l’humanité à accélérer sur la voie du progrès », expliquait le CEO dans un mémo. « Plus important encore, la superintelligence pourrait ouvrir une nouvelle ère d’émancipation individuelle, où chacun disposerait d’une plus grande liberté d’action pour améliorer le monde selon ses propres choix », poursuivait-il.
Les grands discours sont une chose, la réalité en est une autre. La première réalisation concrète du MSL est baptisée Spark, premier LLM de la nouvelle famille Muse dont l’ambition se limite, si on peut dire, à alimenter le moteur IA de l’assistant du groupe. Présent dans l’application mobile Meta AI et en ligne à l’adresse meta.ai – aux États-Unis pour commencer –, le modèle se veut résolument utile.
L’utilisateur de Meta AI pourra par exemple obtenir un itinéraire complet pour un voyage familial en Floride, avec l’aide des sous-agents de Muse Spark : le premier va établir le parcours, le second va comparer plusieurs lieux, un troisième s’occupe de trouver des activités pour les minots.
Tant qu’on a la santé
Avec ses capacités multimodales, le modèle peut « lire » une image et donner des informations sur les objets présents. Voilà qui n’a rien de franchement révolutionnaire, la plupart des IA grand public offrant le même type de fonctionnalités.
Pour tirer son épingle du jeu, Meta met en avant un aspect singulier de la perception multimodale de Muse Spark : son utilité dans le domaine de la santé. Meta AI serait ainsi en mesure de répondre de manière détaillée à des questions de santé, « y compris pour certaines questions impliquant des images et des graphiques ».
Feriez-vous vraiment confiance à une IA pour calculer des calories ?
Le secteur de la santé a été investi par les grands acteurs de l’IA : Anthropic, OpenAI, Microsoft et Perplexity se sont tous lancés avec des déclinaisons « Health » de leurs chatbots. Et le moins qu’on puisse dire, c’est qu’il vaut mieux éviter de remplacer son médecin traitant par ces versions IA pour le moment…
Muse Spark se veut tout aussi doué pour générer de petits jeux que pour le lèche-vitrine virtuel ou trouver des adresses de lieux sympas à découvrir (gare aux hallucinations tout de même). Ce n’est que le début, prévient Meta : « Attendez-vous à des résultats plus riches et plus visuels, avec des Reels, des photos et des publications directement intégrés aux réponses, tout en créditant leurs créateurs ». L’AI slop a encore de beaux jours devant elle.
À terme, Muse Spark va se faire une petite place dans les autres produits et services de Meta : Facebook, Instagram, Messenger, WhatsApp ainsi que dans les lunettes connectées. L’entreprise compte aussi proposer son LLM à des tiers, mais au travers d’un « aperçu privé » sous la forme d’une API limitée à quelques partenaires triés sur le volet. Meta espère être en mesure d’ouvrir les futurs modèles Muse à l’open source. Google a pris ce virage avec Gemma4 annoncé la semaine dernière.
Ce premier modèle, qualifié de « petit et rapide », se décline en deux moutures, Instant pour les réponses rapides et Thinking quand il est nécessaire de se creuser un peu le ciboulot. Selon Meta, « les résultats sont sans équivoque : nous pouvons atteindre les mêmes performances avec un ordre de grandeur en moins [généralement cela fait référence à un rapport de 10x moins, ndlr] sur la puissance de calcul par rapport à notre modèle précédent, Llama 4 Maverick ». Un troisième mode, Contemplating, saura orchestrer plusieurs agents raisonnant en parallèle ; il sera déployé progressivement dans meta.ai.
Au vu des benchmarks fournis par Meta, le MSL a effectivement soigné les fonctions multimodales, Muse Spark surclassant la concurrence sur l’interprétation des images, des graphiques et des interfaces ; le contraire aurait été étonnant dans des benchmarks mis en avant par Meta.
C’est plus inégal sur les tâches de raisonnement pur (logique, maths), tandis que le modèle se débrouille plutôt bien en code, sans être leader incontestable. Il affiche également une vraie spécialisation dans le domaine de la santé. Meta admet des « gaps » de performance dans les systèmes agentiques et les flux de coding.
Sur le plan de la sécurité, Meta ne livre pas encore de rapport de sécurité complet, mais assure que Muse Spark adopte un comportement de refus « robuste » dans des domaines à haut risque (armes chimiques et biologiques). L’entreprise promet également que le modèle n’a pas présenté de capacités autonomes ni de « tendances dangereuses » qui lui permettraient de mettre en œuvre des scénarios de menace dans le domaine de la cybersécurité.
Muse Spark peut s’enorgueillir d’avoir décroché le plus haut niveau de « conscience de l’évaluation » observé à ce jour parmi les modèles testés par le labo indépendant Apollo Research. Mark Zuckerberg en est persuadé : les futurs modèles Muse permettront à Meta de créer des services qui ne se contentent pas de répondre aux questions, mais d’agir aussi comme des agents « capables d’effectuer des tâches à votre place ». Il se dit convaincu que ses LLM soutiendront « une vague de créativité, d’entrepreneuriat, de croissance et d’amélioration de la santé. »
Vous connaissez Mario Kart, la course de voitures version Nintendo. Mario Kart World, lancé en juin 2025, est le neuvième et actuellement dernier épisode de la franchise. « Une première dans l’histoire de la série, le jeu prend place dans un monde ouvert où tous les circuits sont interconnectés », rappelle Wikipédia.
Vous connaissez aussi certainement GeoGuessr, un jeu (lancé en 2013 et basé sur Google Maps) dans lequel il faut trouver l’endroit où l’on se trouve dans le monde à partir d’une image. Voici le mariage entre les deux avec Mario Kart World Guessr, de Mario Universalis.
Le principe est simple : une photo s’affiche et vous devez trouver son emplacement au plus près sur la carte, pour marquer jusqu’à 5 000 points par photo. Ce jeu est sorti durant l’été dernier avec une publication sur Reddit pour l’annoncer, mais il est remonté à la surface suite à un message publié par Nintendojo.