CPUID, l’éditeur des utilitaires CPU-Z et HWMonitor, a été victime d’un hack ayant permis à des malandrins de distribuer un cheval de Troie à la place de ces deux outils. Les liens de téléchargement officiels ont été modifiés pour pointer vers des fichiers malveillants. L’attaque a eu lieu entre les 9 et 10 avril. La situation est désormais sous contrôle.
Screenshot des utilitaires CPU-Z et HWMonitor
Ces deux logiciels comptent des millions d’utilisateurs. CPU-Z est un outil d’identification des composants d’un PC, HWMonitor surveille les capteurs (température, ventilos, etc.). Ceux qui ont eu le malheur de télécharger ces utilitaires durant l’attaque se sont retrouvés avec une variante malveillante de HWiNFO, un outil de diagnostic créé par un autre développeur.
Le logiciel piégé, baptisé « HWiNFO_Monitor_Setup », installe un malware d’origine russe depuis un nom de domaine compromis, détaille vx-underground. Il agit de manière progressive en plusieurs étapes pour ne pas éveiller les soupçons, exécute ses actions directement dans la mémoire vive en évitant d’écrire sur le disque du PC, et utilise des techniques d’évasion pour échapper aux antivirus et aux systèmes de détection.
Le fichier compressé de l’application vérolée est tout de même identifié par une vingtaine d’antivirus, qui le classent comme un cheval de Troie ou un infostealer. Samuel Demeulemeester, alias Doc Teraboule, le développeur derrière CPU-Z et HWMonitor, a assuré que la faille avait été identifiée et corrigée.
Si l’enquête est toujours en cours, il semble qu’une fonction secondaire (une API annexe) a été compromise « pendant environ six heures entre le 9 et le 10 avril ». Doc TB précise à Next que les liens vers le fichier vérolé sont restés en ligne sur le site de CPUID entre 2 h et 8 h (heure française). Seules les dernières versions de CPU-Z et HWMonitor proposées sous la forme d’un fichier compressé .ZIP ont été touchés, pas les .EXE. Il précise aussi que l’app malveillante n’étant pas signée, elle déclenchait donc Windows Defender immédiatement à l’extraction. De quoi limiter l’impact de l’infection.
Important aussi à avoir en tête : les fichiers hébergés sur le serveur de CPUID n’ont pas été compromis, uniquement les liens du site web. Les mises à jour automatiques des logiciels n’ont pas été touchées. Concernant l’attaque en elle-même, son envergure était a priori prévue pour être plus importante encore, puisque les pirates sont parvenus à compromettre les clés TLS privées en exploitant une faille Apache (les certificats compromis ont été révoqués).
Le développeur, toujours à pied d’œuvre, a pu réagir rapidement grâce aux experts en sécurité (et Reddit !) qui lui ont donné un coup de main.
Meta gêné aux entournures. Le géant des réseaux sociaux a nettoyé Facebook, Instagram, Threads et Messenger de dizaines de publicités pour des firmes d’avocats proposant leurs services… contre Meta. Fin mars, l’entreprise et YouTube étaient condamnés par une cour californienne à verser un total de 6 millions de dollars à une jeune plaignante souffrant de troubles de la santé mentale suite à son usage de leurs services.
Il a été démontré que Meta et YouTube avaient mis en place des fonctions visant à créer une dépendance à leurs plateformes. Les deux groupes ont annoncé faire appel, mais tout de même : cette décision de justice pourrait faire jurisprudence.
On a même parlé d’un moment « big tobacco » pour ces réseaux sociaux, en référence à ces grands procès des années 90 qui ont établi la responsabilité des fabricants de cigarettes, non seulement pour les dégâts provoqués par leurs produits sur la santé, mais aussi pour les mécanismes d’addiction qu’ils avaient eux-mêmes contribué à mettre en place.
Évidemment, la comparaison n’est pas flatteuse et Meta ne veut absolument pas être pris dans cette nasse. Les appels confirmeront ou infirmeront la décision judiciaire, mais sans attendre, les avocats spécialisés dans les litiges cherchent à en tirer profit. Des publicités ont ainsi commencé à fleurir sur les réseaux sociaux du groupe, pour recruter de nouveaux plaignants en vue de constituer des actions collectives. Ces procédures (« class actions ») peuvent déboucher sur des indemnisations substantielles, synonymes d’honoraires substantiels.
Dans une de ces pubs repérées par Axios, on peut lire : « Anxiété. Dépression. Dépendance. Automutilation. Ce ne sont pas de simples phases de l’adolescence — ce sont des symptômes liés à l’addiction des enfants aux réseaux sociaux. Les plateformes le savaient et ont continué à cibler les plus jeunes malgré tout. » Meta n’a pas apprécié, et a supprimé ces réclames. Quelques-unes seraient toujours actives, mais l’entreprise veille au grain.
Meta s’appuie sur une clause de ses conditions d’utilisation qui lui permet de supprimer des contenus « si nous estimons que c’est raisonnablement nécessaire pour prévenir ou limiter une utilisation abusive de nos services ou des conséquences juridiques ou réglementaires défavorables pour Meta ».
Un porte-parole confirme que l’entreprise supprimera les publicités visant à recruter des plaignants sur la base de cette décision de justice. « Nous ne permettrons pas à des avocats spécialisés dans les litiges de tirer profit de nos plateformes tout en affirmant qu’elles sont nocives. »
La Wii est un Mac comme un autre, la preuve : la vénérable console de Nintendo peut faire tourner Mac OS X ! Il n’y avait fondamentalement aucun obstacle insurmontable, il suffisait « juste » de plonger les mains dans le cambouis très profondément. Bryan Keller, développeur de son état, avait cette envie depuis l’université, en 2013. Mais difficile de se lancer dans un tel projet sans une solide motivation (et un peu de temps devant soi).
Le déclic est arrivé l’an dernier, lorsqu’il a appris que Windows NT avait été porté sur la Wii. La console est ouverte à la bidouille : Linux et NetBSD peuvent ainsi fonctionner dessus. Porter Mac OS X (10.0 Cheetah, la première version du système d’exploitation de 2001) n’était pas, sur le papier, complètement farfelu. Après tout, la Wii tourne avec un processeur PowerPC 750CL, une évolution du PowerPC 750CXe utilisé dans l’iBook G3 et présent dans certains modèles d’iMac G3.
Côté logiciel, Mac OS X repose sur un cœur open source (Darwin) dont les composants peuvent être modifiés pour permettre aux éléments propriétaires, comme le Finder, le Dock et les apps d’Apple, de tourner sans avoir à les modifier. Sur la Wii, une partie du travail a été mâché grâce au jailbreak de la console.
Il a fallu ensuite se plonger dans les spécificités matérielles de la console, comme par exemple Hollywood. Ce système-sur-puce intègre un coprocesseur ARM pour que le processeur de la Wii puisse communiquer avec son GPU, la carte SD, le stockage, le Wi-Fi, le Bluetooth, etc. Bryan Keller a développé un pilote pour Hollywood, mais aussi pour le lecteur de carte SD afin de booter sur Mac OS X.
Une fois ces bases posées, le système tentait bien de lancer l’interface graphique de Mac OS X, mais sans pilote adapté, impossible d’afficher quoi que ce soit correctement. Le composant WindowServer, chargé de gérer l’affichage, refusait tout simplement de fonctionner. Le bidouilleur a dû s’attaquer à un élément fondamental : le framebuffer. C’est une zone de mémoire vive contenant les données de chaque pixel affiché à l’écran. Faute de pilote compatible avec le matériel de la Wii, il a donc fallu en écrire un de toutes pièces pour permettre à Mac OS X d’afficher son interface.
On vous passe les autres péripéties techniques qui ont occupé Bryan Keller de longues heures (jours/semaines). Le résultat est là : Mac OS X tourne donc sur une Wii, qui prend même en charge un clavier et une souris via son port USB. « Il y a quelque chose de profondément satisfaisant dans le fait de réussir quelque chose dont on n’était même pas sûr, au départ, que ce soit possible », explique-t-il.
Pour les amateurs qui voudraient s’occuper le temps d’un week-end, le développeur a publié tout l’attirail logiciel de sa solution wiiMac sur GitHub.
Little Snitch est un utilitaire bien connu des utilisateurs de Mac. L’outil surveille et contrôle les connexions sortantes des applications installées sur sa machine. La première version remonte à 2003, ce qui ne rajeunira personne, et les mises à jour régulières distribuées par le studio autrichien Objective Development ont achevé d’en faire un logiciel essentiel sur la plateforme. C’est donc une petite surprise de voir débouler une version Linux ! Cette mouture est en fait la conséquence d’un besoin personnel du développeur Christian Starkjohann, qui a migré sur Linux et qui s’est senti « tout nu » sans Little Snitch.
Comme sur Mac, Little Snitch sur Linux révèle l’activité réseau des applications, et donne à l’utilisateur la possibilité d’agir, c’est-à-dire de bloquer la connexion si elle n’a pas été autorisée. L’application permet de voir la manière dont les logiciels interagissent avec les serveurs, et lesquels. On a également l’accès à l’historique du trafic ainsi que des volumes des données échangées.
Little Snitch sur Linux.
Avec l’aide de listes de blocage, Little Snitch est en mesure de bloquer d’un coup des catégories de trafic indésirable. Ces listes peuvent être téléchargées depuis des sources distantes, et le logiciel se charge de les mettre à jour automatiquement. Attention cependant, le format .lsrules de la version macOS n’est pas compatible. L’utilisateur a aussi la possibilité de créer ses propres règles pour cibler un processus ou un port spécifique.
Le logiciel peut être configuré pour réclamer une authentification préalable de l’utilisateur, pour éviter toute manipulation malintentionnée. Les développeurs soulignent que sur Linux, Little Snitch est conçu pour la confidentialité, mais pas pour la sécurité contrairement à la version Mac qui offre de solides garanties dans ce domaine.
La base sur laquelle repose le logiciel est eBPF, un mécanisme du noyau analysant les flux réseau qui impose des contraintes strictes en termes de stockage et de complexité des programmes. Quand le trafic est important, le suivi des connexions perd en fiabilité et certaines informations ne peuvent être reconstituées qu’approximativement, explique le studio. Sur Mac, il est possible d’inspecter les paquets pour réaliser les associations d’une manière plus fiable.
L’interface de Little Snitch est une web app (le logiciel en lui-même est développé en Rust). Un choix qui peut paraitre curieux pour un tel outil, mais qui permet de surveiller les connexions réseau d’un serveur Linux distant à partir de n’importe quel appareil. L’application a trois composants : le programme du noyau eBPF et l’interface web sont disponibles en open source sur GitHub, le démon est quant à lui propriétaire. Mais il est autorisé de l’utiliser et de le redistribuer gratuitement.
Linux ne manque pas d’outils de surveillance des connexions réseau, à l’image d’OpenSnitch, sans oublier les outils en ligne de commande. Mais comme sur Mac, Little Snitch facilite la vie des utilisateurs qui auront sous les yeux une seule interface pour observer le trafic réseau, et pour le bloquer le cas échéant. Le logiciel, compatible avec le noyau 6.12 de Linux et au-delà, est gratuit et il le restera pour toujours, promet Objective Development.
Au bout de 49 jours, 17 heures, 2 minutes et 47 secondes, un Mac resté allumé tout ce temps commencera à perdre sa connexion réseau. La seule solution ? Le redémarrage de l’ordinateur. En cause : un problème d’horloge interne…
Une « bombe à retardement », c’est ainsi que Photon, un service qui connecte des agents IA à iMessage d’Apple, qualifie sa découverte sur Mac. L’image est parlante, mais un rien exagérée car il suffit d’un redémarrage pour que tout revienne à la normale. Néanmoins, cette « date d’expiration » peut représenter un sérieux problème dans les organisations qui ont besoin de faire tourner des Mac en continu.
Une horloge interne en panique
Le noyau XNU de macOS en charge des ressources du Mac, s’appuie sur un compteur interne pour suivre le temps dans la gestion des connexions réseau, sous la forme d’un entier non signé sur 32 bits. Il peut donc contenir des valeurs allant de 0 à 4 294 967 295 (2³²). Si on se sert d’un entier non signé de 32 bits pour compter le temps en millisecondes, le compteur peut donc aller jusqu’à 4 294 967 secondes, soit 49 jours, 17 heures, 2 minutes et 47 secondes. Au-delà ? Ça dépend des cas : retour à zéro, plantage…
Photon a découvert que sur Mac, une vérification mal conçue dans le noyau empêche le système de reconnaître correctement ce basculement après les 49 jours, 17 heures… Tant que le compteur peut augmenter, tout fonctionne normalement. Mais quand il atteint sa limite et repart de zéro, la machine se grippe. macOS considère alors, à tort, que le nouveau temps est « inférieur » à l’ancien et refuse de l’enregistrer.
Le sujet n’est pas nouveau et largement documenté. On le trouve par exemple dans le bug de l’an 2038 sur Linux. Un petit changement sur Debian depuis la version 13 a permis de résoudre le souci : la distribution utilise le format 64 bits (au lieu de 32 bits), de quoi repousser l’échéance de… 292 milliards d’années. Si on remonte dans le temps à l’époque de Windows 95, certains se souviendront peut-être que le système plantait aussi après 49,7 jours d’utilisation.
Résultat, l’horloge TCP reste figée à sa dernière valeur valide. Tous les mécanismes qui dépendent du temps, à l’image de la suppression des connexions fermées, cessent de fonctionner normalement. Il en va ainsi des ressources réseau qui dépendent des connexions TCP : elles s’accumulent jusqu’à saturation, ce qui rend impossible l’ouverture de nouvelles connexions.
Le redémarrage, ultime solution pour l’instant
Photon s’est rendu compte du problème en surveillant sa flotte de Mac qui font tourner plusieurs services iMessage. Des machines qui fonctionnent 24/7 et ne redémarrent qu’en cas de nécessité absolue. Plusieurs de ces Mac ont cessé d’établir de nouvelles connexions TCP 49,7 jours après leur dernier redémarrage.
« Les pings continuaient de fonctionner. Les connexions existantes restaient actives. Mais toute tentative nécessitant l’ouverture d’un nouveau socket TCP échouait », écrit le service. Seule solution : un redémarrage. Cela concerne donc les Mac fonctionnant en continu pendant plus de 49 jours et 17 heures sans redémarrer et qui ont une activité réseau TCP (tous les Mac connectés, au fond).
Selon Tidbits, il semblerait que le bug soit circonscrit à macOS Tahoe, la dernière version du système d’exploitation (macOS 26). Les précédentes moutures de l’OS ne seraient pas affectées, ce qui explique pourquoi le problème n’a jamais été remonté auparavant. Photon de son côté laisse entendre que le bug pourrait remonter à Catalina… Apple ne s’est pour le moment pas exprimé.
Par ailleurs, un Mac en veille devrait aussi repousser l’échéance fatale. De plus, sur un ordinateur peu sollicité, l’épuisement des ports peut aussi mettre beaucoup plus de temps pour devenir perceptible. Pour le grand public, ce n’est pas nécessairement un bug handicapant : même si l’habitude d’éteindre son ordinateur tous les soirs en partant du bureau s’est perdue, il arrive tout de même assez régulièrement de devoir redémarrer sa machine. Ne serait-ce que pour installer une mise à jour du système.
Pour savoir depuis quand un Mac est allumé, il suffit de saisir la commande uptime dans un Terminal :
Ce compteur défectueux posera davantage de problème dans des environnements professionnels, comme c’est le cas chez Photon mais aussi dans des entreprises qui se servent de Mac Pro ou de Mac Studio pour des tâches très longues (rendu, compilation, simulation…) ou au sein de structures hébergeant des Mac en colocation administrés à distance.
Ou encore dans les fermes de Mac mini pour le partage de calcul ou les infrastructures de test. Néanmoins, ces services évitent de faire tourner leurs serveurs Mac avec la version la plus à jour de macOS, pour des questions de sécurité et de fiabilité. Il n’empêche qu’il s’agit tout de même là d’un bug qu’Apple serait avisée de corriger rapidement.
Amazon ferme la porte de sa bibliothèque aux anciens Kindle. Les liseuses et les tablettes Kindle Fire sorties avant 2012 ne pourront plus accéder à la boutique de livres numériques à compter du 20 mai. Les bouquins déjà stockés sur ces appareils continueront d’être lisibles, mais il ne sera plus possible d’en acheter et télécharger de nouveaux.
Ces appareils se transformeront donc petit à petit en presse-papiers de luxe, ce d’autant qu’en cas de problème, une réinitialisation dans les paramètres d’usine rendra la liseuse ou la tablette complètement inutilisable. Il en ira de même si on a le malheur de retirer son compte de la liseuse : on ne pourra plus s’y reconnecter. Sur les Kindle Fire, les services autres que l’achat de contenus resteront fonctionnels.
L’obsolescence programmée de ces appareils concerne le Kindle de première génération, celui sorti en 2007, les Kindle DX/DX Graphite (2009/2010), le Kindle Keyboard (2010), les Kindle 4 et Kindle Touch (2011), ainsi que les Kindle 5 et Kindle Paperwhite 1ère génération (2012). Du côté des tablettes, sont touchées les Kindle Fire 1re et 2e génération (2011), Kindle Fire HD 7 et 8,9 (2012).
L’entreprise se justifie auprès d’Engadget : « Ces modèles ont été pris en charge pendant au moins 14 ans – certains jusqu’à 18 ans – mais la technologie a énormément évolué depuis… » Selon Amazon, la fermeture définitive du Kindle Store touchera 3 % des utilisateurs actuels. Pour faire passer la pilule, l’entreprise va contacter ces lecteurs en leur proposant une remise de 20 % sur une sélection de nouveaux modèles, ainsi qu’un crédit pour acheter des livres.
Si les tablettes d’Amazon ne sont pas forcément les plus durables du marché, les liseuses du constructeur sont des terminaux solides qui peuvent encore rendre bien des services. Ne plus pouvoir accéder à de nouveaux livres sur ces appareils – ce qui est leur seule et unique fonction – est pour le moins malheureux. Mais pas si étonnant au vu de la politique de verrouillage d’Amazon. Ainsi, depuis le 26 février 2025, la fonction de téléchargement et de transfert via USB depuis le site web du commerçant n’existe plus.
Celle-ci permettait de transférer par USB des livres Kindle (AZW3, KFX) téléchargés sur son ordinateur vers une liseuse de la marque. Amazon avançait des raisons de sécurité, en précisant que les nouveaux contenus pourront toujours être envoyés par Wi-Fi (un composant dont les Kindle ont été privés jusqu’en 2010 et le Kindle Keyboard).
On peut toujours transférer des fichiers sur une liseuse Kindle, y compris des PDF et des ePub, avec l’outil Send to Kindle, disponible sous forme d’application (à utiliser avec un câble USB) ou en ligne. Mais la limite est de 200 Mo. Le célèbre logiciel Calibre peut aussi être d’un précieux secours pour transférer des livres sur les Kindle ainsi qu’un grand nombre d’autres appareils.
Les possesseurs d’anciens Kindle qui ne veulent plus s’embêter à jongler avec les formats propriétaires et les verrous logiciels ont l’embarras du choix pour aller voir ailleurs. Les liseuses concurrentes des Kindle sont légion et, à l’instar des modèles de Kobo ou de PocketBook, les constructeurs affichent clairement leur soutien à des écosystèmes plus ouverts.
Avec Muse Spark, son nouveau grand modèle de langage (LLM), Meta joue gros. Il s’agit non seulement de faire oublier l’échec de Llama, la précédente génération de LLM maison, mais aussi de justifier l’investissement maousse costaud dans le labo dédié à la « superintelligence ».
Llama 4, lancé il y a quasiment un an jour pour jour, n’a pas été le succès tant espéré par Mark Zuckerberg qui veut sa part du gâteau de l’IA générative. Pire encore, des soupçons de triche dans plusieurs benchmarks ont définitivement entaché la réputation du grand modèle de langage. Un affront pour le patron de Meta, qui digère toujours l’échec de sa stratégie du métavers.
Une muse pour le cerveau de Meta AI
Hauts les cœurs et les portefeuilles : loin de se laisser abattre par le flop de Llama, Meta a mis la main à la poche pour s’offrir la crème de la crème des spécialistes de l’IA. Débauchés dans toute l’industrie de la tech, ils ont à leur tête Alexandr Wang, l’ancien dirigeant de Scale AI, dont le géant des réseaux sociaux a pris le contrôle l’été dernier en échange de 14,3 milliards de dollars. Pour se transformer en place forte de l’IA, Meta a même laissé partir des vétérans, comme son directeur scientifique Yann LeCun.
Ces experts, regroupés au sein du « Meta Superintelligence Lab » (MSL), planchent sur la nouvelle marotte de Mark Zuckerberg, la « personal superintelligence ». Un concept pour le moins flou censé « aider l’humanité à accélérer sur la voie du progrès », expliquait le CEO dans un mémo. « Plus important encore, la superintelligence pourrait ouvrir une nouvelle ère d’émancipation individuelle, où chacun disposerait d’une plus grande liberté d’action pour améliorer le monde selon ses propres choix », poursuivait-il.
Les grands discours sont une chose, la réalité en est une autre. La première réalisation concrète du MSL est baptisée Spark, premier LLM de la nouvelle famille Muse dont l’ambition se limite, si on peut dire, à alimenter le moteur IA de l’assistant du groupe. Présent dans l’application mobile Meta AI et en ligne à l’adresse meta.ai – aux États-Unis pour commencer –, le modèle se veut résolument utile.
L’utilisateur de Meta AI pourra par exemple obtenir un itinéraire complet pour un voyage familial en Floride, avec l’aide des sous-agents de Muse Spark : le premier va établir le parcours, le second va comparer plusieurs lieux, un troisième s’occupe de trouver des activités pour les minots.
Tant qu’on a la santé
Avec ses capacités multimodales, le modèle peut « lire » une image et donner des informations sur les objets présents. Voilà qui n’a rien de franchement révolutionnaire, la plupart des IA grand public offrant le même type de fonctionnalités.
Pour tirer son épingle du jeu, Meta met en avant un aspect singulier de la perception multimodale de Muse Spark : son utilité dans le domaine de la santé. Meta AI serait ainsi en mesure de répondre de manière détaillée à des questions de santé, « y compris pour certaines questions impliquant des images et des graphiques ».
Feriez-vous vraiment confiance à une IA pour calculer des calories ?
Le secteur de la santé a été investi par les grands acteurs de l’IA : Anthropic, OpenAI, Microsoft et Perplexity se sont tous lancés avec des déclinaisons « Health » de leurs chatbots. Et le moins qu’on puisse dire, c’est qu’il vaut mieux éviter de remplacer son médecin traitant par ces versions IA pour le moment…
Muse Spark se veut tout aussi doué pour générer de petits jeux que pour le lèche-vitrine virtuel ou trouver des adresses de lieux sympas à découvrir (gare aux hallucinations tout de même). Ce n’est que le début, prévient Meta : « Attendez-vous à des résultats plus riches et plus visuels, avec des Reels, des photos et des publications directement intégrés aux réponses, tout en créditant leurs créateurs ». L’AI slop a encore de beaux jours devant elle.
À terme, Muse Spark va se faire une petite place dans les autres produits et services de Meta : Facebook, Instagram, Messenger, WhatsApp ainsi que dans les lunettes connectées. L’entreprise compte aussi proposer son LLM à des tiers, mais au travers d’un « aperçu privé » sous la forme d’une API limitée à quelques partenaires triés sur le volet. Meta espère être en mesure d’ouvrir les futurs modèles Muse à l’open source. Google a pris ce virage avec Gemma4 annoncé la semaine dernière.
Ce premier modèle, qualifié de « petit et rapide », se décline en deux moutures, Instant pour les réponses rapides et Thinking quand il est nécessaire de se creuser un peu le ciboulot. Selon Meta, « les résultats sont sans équivoque : nous pouvons atteindre les mêmes performances avec un ordre de grandeur en moins [généralement cela fait référence à un rapport de 10x moins, ndlr] sur la puissance de calcul par rapport à notre modèle précédent, Llama 4 Maverick ». Un troisième mode, Contemplating, saura orchestrer plusieurs agents raisonnant en parallèle ; il sera déployé progressivement dans meta.ai.
Au vu des benchmarks fournis par Meta, le MSL a effectivement soigné les fonctions multimodales, Muse Spark surclassant la concurrence sur l’interprétation des images, des graphiques et des interfaces ; le contraire aurait été étonnant dans des benchmarks mis en avant par Meta.
C’est plus inégal sur les tâches de raisonnement pur (logique, maths), tandis que le modèle se débrouille plutôt bien en code, sans être leader incontestable. Il affiche également une vraie spécialisation dans le domaine de la santé. Meta admet des « gaps » de performance dans les systèmes agentiques et les flux de coding.
Sur le plan de la sécurité, Meta ne livre pas encore de rapport de sécurité complet, mais assure que Muse Spark adopte un comportement de refus « robuste » dans des domaines à haut risque (armes chimiques et biologiques). L’entreprise promet également que le modèle n’a pas présenté de capacités autonomes ni de « tendances dangereuses » qui lui permettraient de mettre en œuvre des scénarios de menace dans le domaine de la cybersécurité.
Muse Spark peut s’enorgueillir d’avoir décroché le plus haut niveau de « conscience de l’évaluation » observé à ce jour parmi les modèles testés par le labo indépendant Apollo Research. Mark Zuckerberg en est persuadé : les futurs modèles Muse permettront à Meta de créer des services qui ne se contentent pas de répondre aux questions, mais d’agir aussi comme des agents « capables d’effectuer des tâches à votre place ». Il se dit convaincu que ses LLM soutiendront « une vague de créativité, d’entrepreneuriat, de croissance et d’amélioration de la santé. »
Avec son prix serré et une fiche technique solide, le MacBook Neo a, semble-t-il, trouvé son public. Sauf que maintenant, Apple doit composer avec le succès : le stock de puces s’épuise et les coûts grimpent en flèche.
Le MacBook Neo est une anomalie non seulement dans le catalogue d’Apple (qui s’attaque de front au marché de l’ordinateur portable d’entrée de gamme), mais aussi pour le reste de l’industrie. Cette machine à la fiche technique somme toute solide détonne en effet, au vu de l’explosion des prix de la mémoire. Et dans ce contexte, le constructeur parvient à la proposer à 699 euros… on a presque envie d’ajouter « seulement ».
Un problème de riche pour Apple
Pendant que les autres constructeurs se grattent la tête pour esquisser une alternative robuste au MacBook Neo, Apple serait maintenant confrontée à un problème de riche. La demande serait si forte que les stocks de l’ordinateur auraient fondu : sur l’Apple Store en ligne, il faut désormais attendre de 2 à 3 semaines avant de recevoir une commande. Mais produire de nouvelles unités n’est pas aussi simple que d’appuyer sur un bouton vert.
Pour réduire la facture des composants de son petit MacBook, Apple a pioché dans son large répertoire. Ainsi, la puce A18 Pro qui bat sous le capot de la machine n’est autre que la puce de l’iPhone 16 Pro de l’an dernier. Enfin, presque.
Le circuit graphique de la puce du MacBook Neo se contente en effet de 5 cœurs, contre 6 cœurs dans l’iPhone 16 Pro. Apple exploite ici une technique déjà mise en œuvre dans plusieurs autres de ses produits « bon marché » (tout est relatif) : le binning. Toutes les puces A18 Pro ne sont pas nées égales, il peut arriver à TSMC de produire des wafers présentant des défauts. Plutôt que de jeter les puces défectueuses, Apple les recycle dans d’autres appareils, ce qui est d’ailleurs une pratique commune dans toute l’industrie des processeurs.
Tim Culpan, un ancien de Bloomberg qui a manifestement conservé des sources au sein de la chaîne d’approvisionnement d’Apple, rapporte dans sa dernière newsletter que la commande initiale d’Apple auprès de Quanta et Foxconn était de 5 à 6 millions d’unités.
Le problème, c’est qu’avec une si forte demande, le stock de puces A18 Pro destinées au MacBook Neo serait au plus bas. L’A18 Pro de l’ordinateur est (ou était) fabriquée selon le node N3E (3 nm) de TSMC. Si Apple veut relancer la ligne de production de cette puce, il va falloir glisser un petit billet ou deux pour couper la file d’attente. C’est toujours possible, mais les marges du constructeur risquent d’y laisser quelques plumes.
Apple peut également puiser dans les wafers prévus à l’origine pour d’autres appareils, mais la question du coût se pose là encore. L’A18 Pro du MacBook Neo n’est pas « gratuite », mais c’est du recyclage intelligent de silicium qui aurait sinon pu finir à la poubelle. Relancer une production est une toute autre affaire, ce d’autant qu’il faudrait désactiver un des cœurs GPU de ces puces pour que la fiche technique du portable reste dans les clous.
La question centrale du prix
À cela s’ajoutent d’autres coûts : les prix de la mémoire vive, le stockage SSD, et même de l’aluminium ne cessent de grimper. Apple a une puissance de feu telle qu’elle parvient à obtenir de ses fournisseurs des tarifs plus intéressants pour ces composants, mais il n’empêche qu’ils coûtent plus cher aujourd’hui qu’hier.
Pour s’en sortir sans trop grignoter ses précieuses marges, Apple peut toujours relever le prix du MacBook Neo. Mais ce serait contre-productif, car l’étiquette du portable est son principal atout, très mis en avant dans le marketing du groupe. L’entreprise peut aussi décider d’arrêter de vendre le modèle à 699 euros (256 Go) pour ne plus proposer que la version mieux équipée (512 Go et Touch ID) à 799 euros. Mais là encore, ça ferait perdre de l’intérêt à cette gamme pensée pour séduire les petits budgets.
La dernière échappatoire serait de faire le dos rond, d’accepter de perdre des ventes, et d’accélérer la production de la future génération du MacBook Neo. Selon Tim Culpan, Apple prépare un modèle équipé d’une puce A19 Pro, la même que celle des iPhone 17 Pro, qui intègre 12 Go de mémoire unifiée (contre 8 Go pour l’A18 Pro). Il s’attend à ce que le constructeur reprenne la même stratégie, en utilisant des A19 Pro contenant un GPU avec 5 cœurs actifs, au lieu de 6 habituellement. Ce nouveau modèle serait lancé l’année prochaine mais qui sait, peut-être qu’il faudra aller plus vite.
Il y a quelque chose qui coince chez Microsoft. Les développeurs de VeraCrypt, WireGuard et Windscribe ont subi une suspension de leur compte, sans réelle explication de la part de l’éditeur. Résultat : impossible de livrer des mises à jour. La situation devrait heureusement se résoudre très bientôt, suite à l’intervention d’un vice-président de Microsoft.
Mise à jour, 10/04 — Tout finit par s’arranger pour le mieux. Mounir Idrassi, le développeur de VeraCrypt, nous a en effet informé que son accès au portail Microsoft Partner Center a été rétabli suite à l’intervention de Scott Hanselmann. C’est aussi le cas pour Windscribe et pour WireGuard.
Article original, 9/04 — Mauvaise surprise pour les développeurs du logiciel de chiffrement VeraCrypt et du protocole VPN WireGuard, deux applications open source. Visiblement sans crier gare, Microsoft a suspendu leur compte. « Microsoft a résilié le compte que j’utilisais depuis des années pour signer les pilotes Windows et le bootloader », déplore Mounir Idrassi, l’auteur de VeraCrypt.
Microsoft aux abonnés absents
Il n’a reçu « aucun email ni avertissement préalable », affirme-t-il dans un message sur SourceForge remontant au 30 mars. Contacté par Next, il indique simplement qu’il « doit donc y avoir une nouvelle politique chez Microsoft », mais il regrette amèrement le « manque de transparence et de communication de la part de Microsoft »
Même discours ce 8 avril chez Jason A. Donenfeld, créateur et animateur principal de WireGuard. « Un jour, je me connecte pour publier une mise à jour et là, catastrophe : compte suspendu», décrit-il sur le forum de Hacker News.
Dans les deux cas, les développeurs n’ont personne vers qui se tourner chez Microsoft. « Je n’ai obtenu que des réponses automatisées et des bots. Je n’ai pas réussi à joindre un interlocuteur humain », regrette Mounir Idrassi.
Conséquences directes : impossible de publier des mises à jour
Dans les deux cas, les conséquences sont identiques : impossible de publier des mises à jour, ce qui est particulièrement problématique en cas de faille de sécurité. « Imaginez qu’il y ait une faille critique d’exécution de code à distance dans WireGuard, exploitée activement, et que je doive mettre à jour immédiatement (c’est purement hypothétique, pas de panique !) », explique Jason A. Donenfeld. « Dans un cas comme celui-là, Microsoft me laisserait avec les mains entièrement liées. »
Pour VeraCrypt, les mises à jour pour Linux et macOS restent possibles, mais Windows est la plateforme utilisée par la majorité des utilisateurs. Cette suspension de compte est « un coup dur pour le projet », et elle a « des conséquences sur mon activité professionnelle quotidienne », indique son développeur. Il précise à TechCrunch que pour le moment l’utilitaire continue de fonctionner normalement, et qu’aucune faille de sécurité n’a été identifiée récemment.
Si la situation devait rester en l’état, les utilisateurs de VeraCrypt ayant activé le chiffrement de leur système d’exploitation risquent de rencontrer un vrai gros problème à partir de cet été, prévient Mounir Idrassi : « Microsoft va révoquer l’autorité de certification qui a été utilisée pour signer le bootloader de VeraCrypt ».
Une nouvelle certification Microsoft est nécessaire pour que le bootloader puisse continuer de fonctionner, mais sans accès à son compte, le développeur ne pourra pas appliquer cette nouvelle signature. Résultat : le démarrage de Windows chiffré avec VeraCrypt sera impossible. C’est l’équivalent d’« une condamnation à mort ».
Enfin un signe de vie
VeraCrypt et WireGuard ne sont pas les deux seuls dans cette panade. Le service VPN Windscribe a lui aussi subi une suspension de son compte Microsoft (vérifié depuis plus de 8 ans, selon l’éditeur). Mais dans ce dernier cas, l’éditeur a donné un signe de vie. Scott Hanselmann, vice-président de Microsoft et membre de l’équipe technique GitHub, a en effet répondu sur X que le problème devrait être réparé « sous peu ».
En plus de Windscribe, le dirigeant a contacté Jason A. Donenfeld et Mounir Idrassi, ce que le développeur de VeraCrypt a confirmé auprès de Next. Il attend désormais de voir la suite qui sera donnée à son dossier :
« Le principal problème reste toutefois le manque de transparence et de communication de la part de Microsoft. J’ai été choqué de lire dans la notification affichée sur mon compte qu’aucun recours n’était possible ! […] Il s’agissait simplement d’un problème de communication et de vérification [selon Scott Hanselmann], mais il devrait y avoir une communication claire pour avertir les auteurs de ce type de situation. »
On peut espérer que la situation se débloque pour tout le monde rapidement. Dans sa réponse à Windscribe, Scott Hanselmann pointe vers un billet de blog du Hardware Dev Center remontant au 1ᵉʳ octobre 2025. Microsoft y détaille une nouvelle exigence de vérification de compte pour tous les partenaires du programme matériel Windows qui n’auraient pas complété l’opération de vérification depuis avril 2024. Ce programme s’occupe aussi de la certification des pilotes logiciels.
Le processus de vérification devait être effectué sous les 30 jours, à compter du 16 octobre 2025. Microsoft a mis à jour le billet le 3 mars : la vérification des comptes pour le programme a pris fin. « Les comptes qui n’ont pas finalisé avec succès cette vérification et ont reçu un statut « rejeté » ont été suspendus du programme Windows Hardware, et les soumissions provenant de ces comptes ne sont plus autorisées », ajoute l’entreprise.
Microsoft : « Tout est en train d’être corrigé »
Windscribe ne décolère pas : « Nous essayons de résoudre cela depuis plus d’un mois, et nous n’avançons pas. Le support est inexistant. Quelqu’un connaît-il un humain avec un cerveau qui fonctionne encore chez Microsoft et qui pourrait aider ? ». Le bruit engendré par cette affaire fait bouger les choses.
Il y a quelques heures à peine, Windscribe affirmait que « certaines personnes bienveillantes chez Microsoft ont pris contact et apparemment, cela est en cours de résolution ». Cette nuit toujours, Scott Hanselman ajoute avoir parlé à Mounir Idrassi et Jason Donenfeld : « Tout est en train d’être corrigé pendant qu’on parle ».
Après plusieurs semaines de rumeurs, Anthropic a levé le voile sur Mythos, son nouveau modèle d’IA présenté comme ultra-puissant sur la cybersécurité, mais aussi ultra-verrouillé dans son usage puisque seule une poignée d’élus peuvent en profiter. Pas question (pour le moment ?) de le rendre accessible au grand public.
Mythos n’est plus mytho. Après la fuite d’un billet de blog aux faux airs de coup de com’, Anthropic a fini par officialiser Claude Mythos, sous la forme du projet Glasswing. L’annonce intervient alors qu’Anthropic fait face à une autre fuite – sur Claude Code cette fois-ci –, provenant encore d’une « erreur humaine » et qui alimente de nouveau les gros titres.
Du Mythos à la réalité, avec des partenaires triés sur le volet
Ce nouveau modèle IA, qui se veut plus finaud qu’Opus (le modèle jusqu’alors le plus puissant au catalogue de la start-up) a suscité pas mal de fantasmes : ses capacités poseraient une menace pour la sécurité en ligne, de l’aveu même d’Anthropic. Ce n’est pas la première fois que l’entreprise joue des coudes pour mettre en avant son modèle.
Le Mythos du jour serait tout simplement « trop puissant » pour une diffusion publique. Quoi qu’il en soit, l’entreprise a laissé planer le doute, trop heureuse sûrement de rouler des mécaniques, alors que l’introduction en bourse se profile à l’horizon et que la guerre avec OpenAI fait rage.
L’entreprise a donc fini par dévoiler son plan de match et surprise : il n’est pas question de laisser Mythos entre les mains de n’importe qui. Elle a préféré lancer une nouvelle initiative qui permettra aux heureux élus de sécuriser leurs logiciels grâce au nouveau modèle.
AWS (Amazon Web Services), Apple, Google, la fondation Linux, Microsoft, NVIDIA, Cisco, Broadcom et d’autres encore ont accès à un aperçu de Mythos au sein du « projet Glasswing », en référence aux papillons avec des « ailes de verre ».
Il reste 78% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Il se passe toujours quelque chose chez OpenAI, à tel point que la start-up se donne parfois des allures de poulet sans tête. Pas très rassurant à quelques encablures d’une introduction en Bourse.
Les derniers jours ont été particulièrement turbulents chez OpenAI. En toute fin de semaine dernière, l’entreprise a ainsi annoncé une réorganisation de grande ampleur suite au congé maladie de Fidji Simo, « CEO des applications » et numéro 2 de la start-up, derrière Sam Altman.
En 2019, la Franco-Américaine a été diagnostiquée du syndrome de tachycardie orthostatique posturale. « Il est désormais clair que je suis allée un peu trop loin et que je dois vraiment essayer de nouvelles approches pour stabiliser ma santé », a-t-elle expliqué dans un mémo à ses équipes.
Retrait surprise de la numéro 2 d’OpenAI
Embauchée par le créateur de ChatGPT en mai 2025, elle occupait un poste complètement inédit au sein du groupe : directrice générale en charge des applications. L’ancienne vice-présidente de Facebook, devenue par la suite CEO d’Instacart, a poussé une stratégie de recentrage d’OpenAI et de ses précieuses ressources vers la génération de code et les services aux entreprises afin de mieux concurrencer Anthropic. La fermeture de Sora, le générateur de vidéos IA, et la suspension du développement du « mode adulte » de ChatGPT, participent à cette réorientation.
Fidji Simo voudrait aussi créer une « superapp » regroupant ChatGPT, Codex et le navigateur Atlas. En son absence forcée, ce projet ira-t-il à son terme ? Il est en tout cas entre les mains de Greg Bockman, le président d’OpenAI, qui prend cette superapp sous son aile. Brad Lightcap, le directeur des opérations, s’occupera des « projets spéciaux ». Fidji Simo était montée au créneau il y a encore quelques jours seulement pour expliquer le rachat de la chaîne tech TBPN (Technology Business Programming Network) par OpenAI.
Dans la foulée, la directrice marketing Kate Rouch a décidé de se retirer temporairement pour se consacrer à son rétablissement après un cancer. Elle occupait ce poste depuis un an et demi. Elle assurera la transition avec son remplaçant et « espère revenir dans un rôle différent à l’avenir si [sa] santé le lui permet ».
L’ombre de l’IPO
Ce bouleversement dans l’organigramme tombe à un moment délicat pour OpenAI, qui vient de boucler un tour de table à hauteur de 122 milliards de dollars, et qui s’apprêterait à se lancer à Wall Street cette année… Du moins si la direction de l’entreprise parvient à s’entendre sur cette question !
Le site The Information rapporte en effet les frictions entre la directrice financière Sarah Friar et le grand patron Sam Altman concernant le calendrier de l’introduction en bourse (IPO). Les procédures à mettre en place, le travail encore à accomplir en matière d’organisation, et les risques liés aux engagements de dépenses (notamment pour les équipements en serveurs) pourraient mettre à mal l’opération en 2026.
Bizarrement, la directrice financière relevait depuis août dernier non pas du directeur général Sam Altman, comme c’est généralement l’usage, mais… de Fidji Simo, qui vient donc de partir en congé maladie. Un vrai sac de nœuds !
Sur le strict plan financier, OpenAI aurait aussi prévenu les investisseurs que la marge brute réalisée en 2025 était inférieure aux prévisions. Elle a été grignotée par l’achat en urgence de capacités de calcul supplémentaires pour faire face à une demande plus forte que prévu. Sarah Friar s’inquiéterait également de la croissance des revenus, qui tournerait au ralenti.
Sam Altman se fait (encore) tirer le portrait
Le tableau ne serait pas complet sans le portrait de Sam Altman publié ce week-end par The New Yorker. À travers de nombreux témoignages et mémos internes, il dépeint un dirigeant habile, obsédé par la gagne, et qui entretiendrait un rapport, disons, très souple à la vérité.
Sam Altman en prend pour son grade. « Tu dois comprendre que Sam ne peut jamais être digne de confiance […] C’est un sociopathe. Il ferait n’importe quoi », aurait affirmé Aaron Swartz, informaticien, militant politique et hacktiviste américain qui s’est suicidé en janvier 2013. Le terme sociopathe a été utilisé spontanément par d’autres personnes, notamment du conseil d’administration d’OpenAI, expliquent nos confrères.
« Il n’a que faire de la vérité » et n’hésiterait pas à « déformer, trafiquer, renégocier et renier des accords », selon une source. Il posséderait, selon une autre source de chez Microsoft citée par nos confrères, deux traits de caractère que l’on ne retrouve généralement pas chez une seule personne : « un fort désir de plaire aux autres, d’être apprécié dans toutes ses interactions [et] un manque de préoccupation, presque sociopathique, des conséquences que pourrait entraîner le fait de duper quelqu’un ».
L’année dernière, Sam Altman était déjà au cœur de l’attention des médias avec les « OpenAI Files », une collection de documents regroupant de nombreux témoignages, notamment d’anciens employés de l’entreprise. Le portrait n’était pas flatteur. Des cadres supérieurs des trois entreprises qu’il a dirigées ont tenté de le démettre de ses fonctions. Son comportement chez Y Combinator aurait été qualifié de « trompeur et chaotique », avec en plus des accusations d’absentéisme et de course à l’enrichissement personnel. Il aurait menti et cherché à semer la zizanie dans le conseil d’administration… n’en jetez plus.
Le dévoilement de ces coulisses et la réorganisation de la direction au plus haut niveau pourraient-ils faire capoter l’IPO d’OpenAI ? Sans doute pas, les intérêts sont trop élevés, d’autant qu’Anthropic aussi se joint à la fête avec la volonté d’une entrée en bourse cette année. Mais ces remous confirment à tout le moins qu’au-delà de la figure publique de Sam Altman, la gouvernance de l’entreprise reste fragile.
Quel joueur ne s’est pas réveillé en pleine nuit, de la sueur glacée perlant à grosses gouttes sur le visage et dans le dos, en se demandant si tel jeu allait tourner correctement sur son PC ? Il faut dire que les outils à leur disposition sont limités : ils peuvent toujours se référer aux configurations recommandées par l’éditeur, mais souvent cela revient à croiser les doigts dans l’espoir que tout tourne au mieux !
Steam pourrait bien leur faciliter la vie. La dernière bêta du client de la boutique contient des références à un « estimateur de framerate » qui fonctionnerait de la manière suivante : soit en renseignant la configuration matérielle du PC (CPU, GPU, RAM), soit en laissant le logiciel fouiller tout seul pour obtenir ces informations.
Après avoir sélectionné un jeu, Steam serait en mesure de retourner une estimation du nombre d’images par seconde que l’on devrait obtenir sur sa machine. Sur PC, la boutique Xbox offre un outil assez proche, mais elle se contente de dire comment tel jeu fonctionnera sur l’ordinateur, en restant vague. Sur Steam, il s’agira d’obtenir une donnée chiffrée.
Depuis le mois de février, le client Steam en bêta invite tous ceux qui laissent un avis sur la page d’un jeu à inclure automatiquement les caractéristiques matérielles de leur machine. Ils peuvent également autoriser la collecte de données (anonymisées) sur la fréquence d’images. C’est aussi le cas depuis la mise à jour de la version stable de SteamOS pour le Steam Deck qui remonte au 9 mars.
Valve précise que la fonction « est actuellement en version bêta et se concentre sur les appareils fonctionnant sous SteamOS », mais comme on le voit l’éditeur semble voir plus large que les seuls appareils de son écosystème. Il est vrai cependant que c’est plus facile de commencer par SteamOS, où le parc matériel se restreint à une poignée de consoles portables. La console de salon Steam Machine est toujours dans les limbes…
Le framerate ne fait pas tout, et on attend de voir si l’outil de Steam inclura des variations de FPS en fonction de la résolution du jeu et des paramètres de qualité sélectionnés. Le principe reste intéressant, ne serait-ce que pour avoir une idée un peu plus claire des performances à attendre. À voir si cette fonctionnalité arrivera en version finale et, si c’est le cas, sous quelle forme elle sera proposée
Trop de copilotes tuent-ils le Copilot ? C’est la question soulevée par un spécialiste de l’IA qui a dénombré des dizaines de versions différentes de Copilot chez Microsoft. L’éditeur en met partout, à toutes les sauces.
Sorti de Copilot, point de salut chez Microsoft. L’éditeur a la fâcheuse habitude de nommer bizarrement ses logiciels et services ; son IA ne fait pas exception. La course à l’IA générative l’a ainsi poussé à coller l’étiquette Copilot sur un peu tout et n’importe quoi.
Pour le commun des mortels, Copilot évoque un chatbot ou un bouton mystérieux dans une application. Pour Microsoft, c’est une marque à insérer au chausse-pied partout où c’est possible : on travaille dans Microsoft 365 Copilot, avec le mode Copilot du navigateur Edge qui affiche GitHub Copilot, le tout, bien sûr, sur un PC Copilot+ (dont le clavier comprend… une touche Copilot).
Des Copilot dans tous les sens
Cette boulimie presque incontrôlable a été mesurée par Key Bannerman, spécialiste IA, qui s’est amusé à cartographier les différents Copilot. Il en a compté 78, et deux de plus se sont ajoutés depuis : Gaming Copilot (une IA pour l’aide en jeu sur PC et les consoles Xbox), et Microsoft Dragon Copilot, un assistant IA pour le secteur de la santé. Sans oublier Copilot Health annoncé en mars.
Copilot existe sous la forme de chatbots, d’applications de bureau, de plateformes pour les entreprises, d’outils pour développeurs, d’apps dans d’autres apps, dans des logiciels professionnels ou encore dans le matériel (la fameuse touche Copilot des Copilot+PC). Il existe même un Microsoft Copilot Studio pour créer d’autres Copilot !
Pour Key Bannerman, chaque équipe en interne doit prouver « qu’elle fait partie de l’histoire de l’IA », au risque sinon de se dissoudre dans le grand rien. Renommer tout et n’importe quoi Copilot ne serait qu’« un instinct de survie ».
L’IA générative a allumé la mèche d’une course à l’échalote entre les grands noms de la tech. Google aussi a tendance à apposer l’étiquette Gemini un peu partout. Mais, chez Microsoft, l’inflation de Copilot donne surtout l’impression que personne n’est au manche de l’avion — ou plutôt si : 80 copilotes.
De l’IA au chausse-pied
Reste à savoir à quoi sert tout ce petit monde. Un changement discret, réalisé en octobre dans les conditions d’utilisation de Copilot, a rebondi sur les réseaux sociaux ces derniers jours. Microsoft y explique — en gras et bien visible — que « Copilot est uniquement destiné à des fins de divertissement […] Ne vous fiez pas à Copilot pour obtenir des conseils importants. » Un message qui contraste avec le discours de l’entreprise, promouvant une IA « utile » pour les utilisateurs comme pour les entreprises.
Microsoft prévoit toutefois de modifier prochainement les termes et conditions de Copilot. « La formulation “à des fins de divertissement” est un héritage de l’époque où Copilot a été lancé comme un service d’accompagnement à la recherche dans Bing », a expliqué un représentant du groupe à PCMag. Une formulation qui ne reflète plus la manière dont l’IA est désormais utilisée. Ça va mieux en le disant.
C’est une manière pour l’éditeur de rappeler que son IA générative peut faire des erreurs. Un message plus ou moins similaire se trouve chez d’autres. Anthropic par exemple rappelle que « Claude est une IA et peut faire des erreurs », de même chez OpenAI avec ChatGPT qui peut aussi « commettre des erreurs ».
Trop de Copilot tue-t-il le Copilot ? Microsoft avait reçu un accueil glacial en fin d’année dernière, lors de la présentation d’une vision d’un Windows « agentique ». À tel point que l’éditeur a annoncé une réduction de la voilure des fonctions IA dans le système d’exploitation.
En mars, lors de l’annonce de changements en profondeur pour Windows 11, Microsoft laissait entendre que les intégrations inutiles de Copilot allaient disparaitre, à commencer par Capture et croquis, Photos, Widgets et Bloc-notes.