Vue lecture

GOBLiiNS6 - Le point-and-click culte est de retour

Gobliiins, Gobliins 2, Goblins 3... si vous avez connu les point-and-click de Coktel Vision dans les années 90, vous allez kiffer !! Pourquoi ? Hé bien parce que Pierre Gilhodes, le créateur original, vient de lâcher GOBLiiNS6 sur itch.io pour une dizaine de dollars.

On y retrouve Fingus et Winkle, les deux héros de Gobliins 2, partis cette fois à la recherche du Prince Bouffon, fils du roi Angoulafre, dans un monde médiéval en guerre, avec de la magie, et des puzzles complètement tordus à résoudre.

Mais avant, un petit rappel pour les bébés qui me lisent. En fait dans la série des Goblins, le nombre de "i" dans le titre correspond au nombre de personnages jouables. Gobliiins = 3 persos. Gobliins 2 = 2 persos. Goblins 3 = 1 perso. Du coup GOBLiiNS6 avec ses 2 i, c'est donc encore un duo à coordonner intelligemment pour progresser (et oui, je sais compter ^^).

Et c'est pas un fan game ou un énième remake fait à l'arrache, puisque c'est Pierre Gilhodes lui-même qui est aux manettes. Le bonhomme avait déjà sorti GOBLiiiNS5 sur Steam en 2023 (avec 3 i, donc 3 personnages, z'avez capté ??). GOBLiiNS6 c'est donc finalement la suite directe.

Le jeu propose 16 niveaux en 2D au format 16/9, bourrés d'énigmes à résoudre. Chaque personnage gère son propre inventaire, pas de partage entre les deux (Vous allez tellement galérer à vous souvenir qui trimballe quoi ^^) et le système de jeu repose sur la coopération entre les deux compères, car chacun a des capacités différentes pour débloquer les situations.

Le piège et le côté fun de cette série de jeux, c'est donc justement de tester toutes les combinaisons possibles entre les personnages et les objets. Vous utilisez le mauvais perso au mauvais endroit ? Hop, animation comique et retour à la case départ. C'est voulu ! C'est absurde, c'est drôle, et c'est tout l'ADN de la franchise !

C'est un point-and-click qui va certainement vous rappeller l'époque où les jeux d'aventure français tenaient la dragée haute aux LucasArts et Sierra de l'époque. Coktel Vision, c'était quand même Woodruff, Lost in Time, Ween... etc. Quelle époque !!

GOBLiiNS6 est disponible en français et en anglais et vous pourrez le lancer au choix en plein écran ou fenêtré... car oui c'est du Windows pur !! Pas de Mac ni de console pour le moment. Voici une petite vidéo si vous voulez voir à quoi ça ressemble :

Le jeu est dispo ici sur itch.io pour une dizaine de dollars. Vous cliquez, vous payez, et c'est plié ! De quoi occuper vos soirées au lieu de scroller sur Mastodon ou Bsky à la recherche de votre prochain drama préféré.

Allez, bon puzzle à tous !

Source

  •  

Wikipedia vs archive.today - 700 000 liens en sursis

Un peu moins de 700 000 liens, c'est le nombre de références vers archive.today que Wikipedia envisage de supprimer d'un coup ! Et la raison est assez dingue... en fait le service d'archivage a planqué du code DDoS dans son CAPTCHA afin d'attaquer le blog d'un mec qui a eu le malheur de chercher l'identité du fondateur du site.

L'histoire est tordue vous allez voir...

En 2023, un blogueur du nom de Jani Patokallio publie un article sur son blog Gyrovague pour tenter d'identifier le créateur d'archive.today, un certain "Denis Petrov" (probablement un pseudo). Pas de quoi fouetter un chat, sauf que le principal intéressé n'a visiblement pas kiffé.

Du coup, un bout de JavaScript s'est retrouvé comme de par hasard dans la page CAPTCHA du service, exécutant une requête vers le blog de Patokallio toutes les 300 millisecondes. Chaque visiteur qui passait par le CAPTCHA devenait alors un soldat involontaire d'une attaque DDoS.

Et le bonhomme ne s'est pas arrêté là... il a ensuite menacé de créer un site porno avec le nom du blogueur. On est vraiment dans la réponse proportionnée, clairement.

Le souci, c'est que Wikipedia utilise archive.today de manière MASSIVE. Cela représente 695 000 liens répartis sur environ 400 000 pages. C'est le deuxième fournisseur d'archives de toute l'encyclopédie !

Du coup, les éditeurs se retrouvent face à un sacré dilemme. D'un côté, on a ceux qui veulent tout blacklister parce que "la sécurité de vos lecteurs, ça passe avant les citations". Et de l'autre, ceux qui rappellent que le service contient des archives qu'on ne trouve NULLE PART ailleurs, même pas sur la Wayback Machine .

Bon courage pour trouver un remplaçant les mecs !

Et petit détail qui n'en est pas un, au passage... En fait, archive.today sert aussi à contourner des paywalls. C'est pratique pour vérifier des sources, ou lire de supers articles sans payer mais techniquement c'est illégal.

Mais quand la source originale a disparu, on fait comment ? Et c'est là tout l'intérêt de ces services d'archivage.

Bon, les paywalls, on comprend tous pourquoi ça existe. Produire de l'info de qualité, ça coûte un bras. Sauf que c'est quand même un truc un peu naze. Vous bossez, vous produisez un contenu top, et au final y'a que 10 personnes qui payent pour le lire. Et ce sont les mêmes 10 personnes qui sont pigistes et qui vont reprendre votre info pour la diffuser gratuitement sur leur média ! On le voit avec Mediapart... des enquêtes énormes derrière un paywall, et toute la presse qui reprend leurs scoops sans payer. Je trouve ça vraiment dommage.

Moi, ce que j'aime dans le fait d'écrire sur le web, c'est que vous me lisiez. Et mettre du contenu derrière un paywall, ça voudrait dire que plein d'entre vous ne me liraient plus. C'est pour cela que même le contenu que je réserve en avant-première sur Patreon , au bout de quelques semaines, je le libère pour tout le monde.

Quand je vois The Verge par exemple qui en met dans tous les sens... ben j'y vais plus. J'ai pas envie de payer un abonnement de plus pour une valeur ajoutée pas folle. C'est un peu comme les bandeaux cookies, à savoir un effet de bord regrettable du web moderne. On doit faire avec parce que personne n'a trouvé mieux comme idée...

Bref, entre les DDoS vengeurs, les 700 000 liens en sursis et les paywalls qui pourrissent tout ... le web ouvert, c'est pas gagné les amis. Voilà voilà.

Source

  •  

Waymo - Ses voitures autonomes pilotées depuis les Philippines

Les voitures Waymo, celles qui se baladent toutes seules à San Francisco, Phoenix ou Los Angeles... ne seraient pas si autonomes que ça en fait. Hé oui, quand elles sont paumées, ce sont des opérateurs aux Philippines qui leur disent quoi faire.

C'est le chef de la sécurité de Waymo lui-même, Mauricio Peña, qui a lâché le morceau lors d'une audience au Congrès américain le 4 février dernier. Du coup on apprend que ces fameux robotaxis, quand ils bloquent sur une situation (un carrefour bizarre, un chantier, une route pas cartographiée...), envoient une demande d'aide à des opérateurs humains qui pour certains sont basés aux États-Unis et d'autres aux Philippines.

Peña a bien insisté : ces opérateurs "fournissent des indications" mais "ne conduisent pas le véhicule à distance". En gros, c'est de la téléassistance, plutôt que du téléguidage et le robotaxi reste "toujours en charge" de la conduite.

Sauf que le sénateur Ed Markey, lui, voit pas ça du même œil. Selon lui, avoir des gens à l'étranger qui influencent le comportement de milliers de véhicules sur les routes américaines, c'est un sacré problème de (cyber) sécurité. Il parle carrément de "prise de contrôle par des acteurs hostiles" qui pourraient obtenir un accès quasi-total à ces bagnoles.

Hé oui, tout peut arriver dans la vie, Ed !

D'ailleurs y'a eu un accident avec l'un de ces taxis sans conducteur qui a percuté un gamin près d'une école primaire à Santa Monica, il n'y a pas longtemps. Alors est ce que c'était la faute de l'IA qui conduisait ou un opérateur humain à l'autre bout du monde qui s'est assis sur son clavier ? Allez savoir...

Et la filiale d'Alphabet n'est pas la seule dans ce cas car Tesla aussi s'appuie sur des opérateurs à distance pour superviser ses véhicules autonomes.

Perso, ce qui me dérange c'est pas qu'il y ait des humains dans la boucle. En fait c'est normal, la techno n'est pas encore au point. Mais le piège, il est au niveau du marketing. On nous vend de l'"autonome", du "sans conducteur", de la voiture du futur pilotée par l'IA ... alors qu'en fait y'a un call center aux Philippines qui veille au grain.

Et le plus marrant dans tout ça, c'est que les opérateurs doivent avoir un permis de conduire et sont contrôlés sur les infractions routières qu'ils auraient commis de leur côté à titre perso. Il faut des gens irréprochables avec le permis... pour aider une bagnole qui est censée ne pas en avoir besoin (de permis). J'adore ^^.

Voilà, comme je l'expliquais dans mon article sur la conduite autonome , y'a encore BEAUCOUP de chemin à faire avant d'avoir de vrais véhicules sans chauffeur. Et finalement, même les meilleurs comme Waymo "trichent" un peu.

Source

  •  

Hallucinating Splines - Le SimCity où les IA font mieux que votre Maire

SimCity, je pense que tout le monde connaît. Moi c'est vraiment l'un de jeux préférés. Enfin la version SimCity 2000. C'est que des bons souvenirs pour moi. Dans ce jeu, vous posiez des routes, des zones résidentielles, et vous regardiez votre ville grandir... ou cramer, selon les jours. Hé bien Hallucinating Splines , c'est le même délire, sauf que c'est une IA qui joue à votre place.

Ce projet est basé sur Micropolis , la version open source du SimCity original sorti en 1989 (Et surtout pas les trucs d'EA qui ont suivi ^^). Du coup, on a un vrai moteur de simulation urbaine avec zonage résidentiel, commercial, industriel, gestion des services publics, du trafic... bref le package complet.

Sauf qu'ici, personne ne touche la souris. Des agents autonomes prennent les décisions, construisent les infrastructures et gèrent la croissance de leur ville sans intervention humaine. Enfin, sauf si vous comptez le clic pour lancer la simulation.

Et visiblement ça tient plutôt bien la route (sans mauvais jeu de mots). 96 maires IA, 607 villes construites et une population cumulée de plus de 10 millions d'habitants virtuels. C'est pas mal hein pour des programmes qui n'ont jamais mis les pieds dans un conseil municipal !

En fait, le concept s'appelle "Vibe a City". Vous cliquez sur un bouton et hop, une IA se met à bâtir sa métropole en temps réel sous vos yeux, sans intervention humain. Les villes portent également des noms générés plutôt poétiques je trouve... Turtle Ziggurat, Storm Cove, Azure Heath, Procedural Mesa (ok celui-là est un peu trop honnête).

Et y'a même un leaderboard avec un système de scoring. Chaque cité a son indicateur d'activité (Tout fraiche, récente, ancienne ou stagnante), les stats se rafraîchissent toutes les 30 secondes et on peut trier par population, par score ou par date. Une certaine Annexed Colony tape par exemple dans les 185 000 habitants en l'an 2428 dans le jeu. C'est foufou !

Côté technique, plutôt que de repartir de zéro, tout repose sur micropolisJS, une implémentation JavaScript/HTML5 de Micropolis sous licence GPL v3, et le code est dispo sur GitHub (un git clone et c'est parti). Si vous connaissez Microlandia que j'avais présenté il y a quelques semaines, c'est dans la même veine mais avec une couche d'agents IA par-dessus.

Et n'oubliez pas d'aller voir le petit clin d’œil sur la page de crédits ou dans le footer qui affiche le Dr. Wright, le fameux conseiller de SimCity sur SNES. Après le piège, c'est que vous allez y passer des heures à regarder une IA construire ce que vous n'avez jamais réussi à faire dans le jeu. Ahahaha !

A découvrir ici !

  •  

Test du NAS UGREEN NASync DXP4800 Pro

– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Tiens, et si on parlait de NAS aujourd’hui ? On va même parle d’une nouveauté qui est sortie il y a quelques jours, le UGREEN NASync DXP4800 Pro . On ne parle pas de la version "Plus", mais bien du modèle "Pro" qui commence à avoir de sérieux arguments pour lui.

Pour tout vous dire, j'ai profité du besoin d’un couple d'amis pour leur faire une installation propre, avec ce modèle, et c’est vraiment un super produit. Lui est sur PC, elle sur Mac, et ils bossent tout les deux dans la création audiovisuelle. Sauf que voilà, comme souvent dans ces métiers, avec des centaines de gigas de russes qui trainent un peu partout, la gestion des données devient vite un sujet sensible et d'inquiétude, avec plein de disques durs externes un peu partout, en vrac, rien de pratique.

Si on regarde dans les détails son équipement c'est vraiment pas mal du tout. Le bouzin est équipé d'un processeur  Intel Core i3-1315U avec 6 cœurs, de 8 Go de RAM DDR5 (qu'on peut pousser jusqu'à 96 Go) et surtout d'un port 10GbE et d'un port 2,5GbE. On a aussi deux emplacements M.2 NVMe pour le cache, c'est complètement optionnel mais ça peut servir pour booster les accès aux petits fichiers. Alors oui, vous allez me dire que ce NAS est peut-être un peu surdimenssioné pour un usage à la maison, mais quand on a aussi un usage pro ou semi-pro, c'est quand même rassurant d'avoir une machine qui ne sera pas à genoux dans trois ans, et qui est évolutive.

Pour l'installation des disques, on a essayé d'être stratégiques en optimisant au mieux les 4 baies. On a monté les deux premiers disques en RAID 1 pour tout ce qui touche au boulot : sauvegarde des projets, rushs originaux et documents administratifs. C'est la ceinture et les bretelles, si un disque lâche, le travail est en sécurité. Pour les deux autres baies, on est partis sur du RAID 0 dédié à Plex. Pourquoi ? Parce que leur bibliothèque de films, on s'en fiche un peu de la perdre. Si un disque fini par décéder, ce n'est pas un drame national, on re-télécharge les fichiers et c'est reparti.

Ce qui m'a vraiment bluffé, c'est la rapidité de la mise en route. En quelques minutes, l'UGOS Pro, le système d'exploitation maison basé sur Debian, était opérationnel. UGREEN a fait un boulot assez dingue sur l'interface : c'est propre, c'est fluide et on n'est pas perdu dans des menus labyrinthiques. On sent que la marque veut venir chasser sur les terres de Synology en proposant une expérience utilisateur léchée tout en gardant une puissance matérielle brute supérieure. L’installation de Plex n’est pas encore proposée nativement sur l’OS de UGREEN (ça reste possible, en passant par Docker). Mais très franchement, même sur mon Synology je préfère avoir Plex qui tourne sur une machine déporté (en l’occurrence un Mac mini dans mon cas). Pour eux, ça sera sur le PC de la maison. Le NAS servant uniquement pour le stockage et le partage de données.

Ce NAS est disponible pour sa sortie à 699,99€ en promo (au lieu de 779,99€, il faut cocher le coupon sur Amazon) , ça n’est pas donné, mais c’est vraiment un NAS très solide, bien fini, et qui doit faire le job pendant au moins 7-8 ans. Puis quand on regarde la qualité de fabrication en aluminium et la connectivité réseau, le rapport performance-prix est vraiment bon. C'est une machine de guerre silencieuse qui s'intègre parfaitement dans un bureau ou un salon. Mes amis ont maintenant un système où le PC et le Mac communiquent sans friction, avec une vitesse de transfert qui permet de monter directement depuis le NAS.

Si vous voulez un NAS solide, qui tiendra dans le temps, et que vous n'avez pas à bidouiller dans tous les sens, c'est franchement un très bon choix, et pour tout vous dire j'ai même envie d'en prendre un pour moi ha ha.

Le NAS UGREEN DXP4800 Pro est disponible ici sur Amazon , et n’oubliez pas de cocher le coupon pour avoir la promo !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

  •  

led.run - Transformez n'importe quel écran en panneau LED

Transformer n'importe quel écran en panneau LED géant, avec juste une URL... ça vous chauffe ? C'est en tout cas ce que propose led.run , un petit outil open source sous licence MIT qui fait le taf sans avoir besoin d'installer quoi que ce soit.

En gros, vous tapez votre texte directement dans l'URL, genre led.run/KORBEN JE T'AIME et hop, votre navigateur affiche un gros panneau lumineux comme ce qu'on retrouve dans les concerts ou dans les vitrines de magasin.

Et ça tourne dans n'importe quel navigateur (même celui de votre grille-pain connecté).

led.run en action avec le thème par défaut - sobre mais efficace

Le truc sympa, c'est qu'il y a une vingtaine de thèmes disponibles. Du néon qui clignote au style rétro avec des scanlines façon vieux moniteur CRT, en passant par un mode "panneau routier", un effet feu d'artifice ou encore une ambiance Shibuya sous la pluie. Y'a même un thème "bois artisanal" pour ceux qui veulent faire chic. Attention par contre, sur un vieux smartphone certains effets un peu chargés peuvent ramer.

Et tout se paramètre via l'URL. Vous voulez du texte rouge ? Ajoutez ?c=ff0000. Un fond blanc semi-transparent ? ?bg=40ffffff. Du défilement vers la droite à vitesse turbo ? ?speed=120&dir=right. C'est super car avec ça vous pouvez automatiser plein de trucs. Par exemple je me ferais bien un panneau d'affichage au dessus de la porte du bureau pour dire aux enfants de pas débouler en plein pendant mes lives Twitch (oui c'est les vacances en ce moment...).

Vive l'éducation positive !

D'ailleurs, l'outil détecte automatiquement si votre texte est court ou long. Dix caractères ou moins, ça s'affiche en mode panneau statique. Au-delà, ça défile tout seul. En fait c'est plutôt bien foutu, sauf si vous voulez un long texte en statique... dans ce cas, forcez avec ?mode=sign ou ?mode=flow.

Voilà c'est parfait pour transformer un vieil iPad ou une tablette Android en enseigne de bar ("HAPPY HOUR JUSQU'À 21H"), brandir votre téléphone en mode pancarte à un concert pour dire à Taylor Swift que vous voulez l'épouser, ou afficher un "NE PAS DÉRANGER ON BRASSE DU VENT" sur l'écran de la salle de réunion.

Voilà voilà. Si vous avez une vieille tablette qui traîne, vous savez quoi en faire maintenant.

C'est sur GitHub !

Merci à Lorenper pour la découverte !

  •  

Détectez les articles qui veulent vous énerver

Si vous avez l'impression que tout ce que vous lisez en ligne est conçu pour vous énerver... vous avez probablement raison ! Le rage bait, élu mot de l'année 2025 par Oxford, c'est exactement ça. Et RageCheck , un outil gratuit lancé début janvier, se propose justement de le détecter pour vous.

En gros, le principe c'est de coller l'URL d'un article ou d'un connard de réseau social quelconque dans le champ de saisie de ragecheck.com, et l'outil le passe au peigne fin en 3-4 secondes pour repérer les techniques de manipulation émotionnelle. Du langage chargé, du framing "nous contre eux", des formulations catastrophistes... tout ce qui est conçu pour vous faire cliquer en jouant sur l'indignation plutôt que sur l'information.

En fait, RageCheck analyse le texte selon 5 catégories pondérées. Le langage "inflammatoire" et les formulations de type panique/menace pèsent chacun 25% du score final, l'appât à engagement 20%, et les patterns absolutistes ("toujours", "jamais", "TOUS") plus le framing clivant comptent pour 15% chacun.

Du coup, un article qui accumule les "c'est SCANDALEUX" et les "ils veulent DÉTRUIRE votre vie privée"... ça peut vite monter dans le rouge !

Le score va de 0 à 100. De 0 à 33, c'est clean. De 34 à 66, y'a du contenu manipulatoire modéré, et à partir de 67, c'est du putaclic assumé (et vous devriez probablement fermer l'onglet). Le truc bien pensé, c'est que l'outil vous montre EXACTEMENT quels passages ont déclenché l'alerte, avec le détail par catégorie. Par contre, attention, ça ne marche qu'avec des URLs publiques... donc si l'article est derrière un paywall, c'est muerto.

Chez moi c'est toujours supergreen, désolé ^^

Attention, RageCheck ne fait PAS de fact-checking. Il ne vous dira pas si un article dit vrai ou faux. Il se content de détecter les patterns de manipulation, mais pas le mensonge. La nuance est importante, parce que un article parfaitement factuel peut utiliser du framing manipulatoire pour orienter votre réaction.

Notez que le code source est dispo sur GitHub sous licence MIT donc y'a moyen de pousser le concept encore plus loin. Moi j'en ferais bien une extension navigateur qui viendrait automatiquement masquer les contenus problématiques... Ma tension artérielle ne s'en portera que mieux je pense...

En tout cas, j'apprécie que le scoring soit transparent et que ce ne soit pas une boîte noire. Chaque catégorie est modifiable dans le code ce qui permet d'ajuster les dictionnaires de détection par contre, le dico de détection est uniquement en anglais pour l'instant, donc sur des articles francophones ça marche moins bien.

Et vu comment certaines plateformes récompensent carrément la désinformation à l'engagement , avoir un outil qui décortique les ficelles de la manipulation, c'est pas du luxe ! Le rage bait est devenu une INDUSTRIE et les algorithmes adorent ça parce que la colère, ça génère des clics comme un distributeur de bonbons pour les accros au sucre.

Bref, c'est gratuit, c'est open source et surtout ça permet de retourner les techniques des putaclics contre eux-mêmes. Elle est pas belle la vie ?

  •  

Street Fighter II - Une faute d'orthographe corrigée grâce au mollet de Guile

Street Fighter II, c'est dans l'esprit de la plupart d'entre nous, 1991, les salles d'arcade qui puent la clope et les pièces de 10 francs qui s'enchaînent... et surtout un écran-titre qui affiche "WORLD WARRIER" au lieu de "WORLD WARRIOR". Ouais, y'avait une coquille dans le titre d'un des jeux de baston les plus légendaires de l'univers et personne ne l'a jamais su !

Magnifique hein ?

Le problème, c'est que sur les bornes d'arcade Capcom CPS1, les graphismes sont gravés dans des puces ROM. Du vrai read-only qu'on grave une bonne fois pour toutes et qu'on ne touche PLUS après. Et en 1991, les puces ROM coûtaient un bras et les délais de production étaient assez dingues... Donc impossible pour Capcom de faire regraver quoi que ce soit même pour une malheureuse lettre.

Nous sommes donc toujours en 1991, à 3 jours de la deadline pour livrer le code ROM (la seule puce encore modifiable à ce stade) et quelqu'un se rend compte du bug.

Horreur malheur ! C'est la panique et tout le monde se met à réfléchir à une solution... Quand soudain, un hack digne des plus belles bidouilles émerge de ces cerveaux endoloris par tant de travail.

Il faut savoir que sur le CPS1, chaque graphisme est découpé en "tiles" c'est à dire des petits carrés de 8×8 pixels. Et le truc important, c'est que chaque tile ne contient pas une lettre entière mais un BOUT de lettre. Le logo "WORLD WARRIOR", c'est en fait une mosaïque de 16 tiles collées les unes aux autres, et chaque carreau contient des fragments des lettres voisines. Impossible donc de toucher à ces carreaux une fois gravés dans la ROM graphique... Mais la table qui dit "colle CE carreau ICI avec CETTE palette de couleurs"... ça, c'était encore modifiable dans la ROM code.

Le hic c'est qu'il fallait composer avec les tiles existantes car pas moyen d'en créer de nouvelles !

Du coup, l'équipe s'est mise à passer au crible les centaines de tiles déjà gravées dans la ROM, une par une, pour trouver des morceaux compatibles avec les bonnes lettres. Et bonne nouvelle... pour certaines tiles, ils ont trouvé des équivalents dans le mot "WORLD" sur l'écran-titre. Et en réarrangeant le puzzle, ils ont réussi à afficher presque tout "WARRIOR" correctement. Presque. Parce que le "i", lui, ressemblait maintenant à un "L" minuscule... il manquait le point mes amis !!

Et c'est là que ça devient du grand art car pour dessiner ce petit point, il leur fallait un carreau avec quasi rien dessus. Ils ont fini par repérer la tile 0x96 dans la ROM... un carré de 8×8 avec UN SEUL pixel allumé dans le coin bas gauche. Ce pixel appartient en fait au mollet de Guile. Ni plus ni moins.

En changeant sa palette (exit la teinte vert kaki, bonjour la couleur du logo), ils l'ont ensuite collé 3 fois au bon endroit pour dessiner le point du "I". Et personne n'a finalement rien capté pendant des DÉCENNIES.

Hé voilà comment, si vous avez joué à Street Fighter II en arcade dans les années 90, vous aviez littéralement un bout de la jambe de Guile planqué dans l'écran-titre sans le savoir. Magnifique non ?

C'est Fabien Sanglard qui a déterré toute cette histoire il y a quelques années, en analysant le code source du CPS1, aidé d'une interview d'Akira Nishitani (un des créateurs du jeu) datant de 1991.

C'est le genre de bidouille qu'on ne fait plus aujourd'hui avec les mises à jour en ligne mais à l'époque, quand la ROM était gravée, c'était FINITO donc fallait se débrouiller avec ce qu'on avait sous la main quand y'avait un souci.

  •  

Lingoku - L'extension qui transforme votre navigation en cours de japonais

Vous avez déjà essayé d'apprendre le japonais ?

Moi aussi. Et comme 90% des gens, j'ai abandonné après avoir constaté que mémoriser des listes de vocabulaire sur Duolingo en mode perroquet, c'était franchement pas terrible pour progresser. Le truc, c'est que notre cerveau retient beaucoup mieux les mots qu'on rencontre en contexte réel plutôt que dans des exercices artificiels.

Hé bien c'est exactement sur ce principe que repose Lingoku , une extension pour Chrome, Edge et Firefox qui va remplacer certains mots sur les pages web que vous visitez par leur équivalent japonais. Du coup, pendant que vous scrollez Reddit, lisez le New York Times ou que vous vous perdez sur Korben.info, vous apprenez du vocabulaire sans vous en rendre compte.

Le concept s'appuie sur la théorie du i+1 de Stephen Krashen , un linguiste qui a démontré que l'acquisition d'une langue fonctionne mieux quand on est exposé à du contenu juste un peu au-dessus de son niveau actuel. Pas trop simple pour s'ennuyer, pas trop dur pour décrocher. Lingoku analyse donc votre niveau et ne remplace que les mots adaptés à votre progression, genre 10% du texte seulement pour que vous puissiez toujours comprendre le contexte global.

Grâce à cette extension, quand vous survolez un mot japonais, la traduction apparaît en 0,2 seconde. Pas de popup intrusive ni de fenêtre qui vous sort de votre lecture. L'extension utilise un "cerveau contextuel" basé sur l'IA qui comprend les nuances des kanjis selon le contexte dans lequel ils apparaissent. Parce que oui, un même kanji peut avoir plusieurs significations et c'est souvent là que ça devient galère pour les débutants.

Y'a aussi un système de répétition espacée intégré qui vous rappelle de réviser les mots aux moments optimaux pour lutter contre l'oubli. Et si vous préparez le JLPT (l'examen officiel de japonais), vous pouvez configurer l'extension pour cibler spécifiquement le vocabulaire de votre niveau.

L'installation prend 30 secondes, vous choisissez vos objectifs (JLPT, vie quotidienne ou anime si vous êtes un weeb assumé), vous indiquez votre niveau actuel, et hop, c'est parti. L'extension fonctionne sur à peu près tous les sites avec du contenu textuel.

Niveau confidentialité, le contenu est chiffré pour l'analyse IA, supprimé instantanément et jamais stocké. La version gratuite offre 500 points quotidiens, ce qui devrait suffire pour une utilisation normale et si vous voulez plus, il faudra passer à la version payante pour débloquer les fonctionnalités IA avancées, les rapports de progression détaillés et la synchronisation multi-appareils.

Bref, si vous avez toujours rêvé de pouvoir lire des mangas en VO ou de comprendre ce que racontent les personnages dans vos animes préférés sans sous-titres, cette extension peut être un bon complément à votre apprentissage. C'est pas magique et ça ne remplacera jamais un vrai cours de grammaire, mais pour enrichir son vocabulaire de manière passive pendant qu'on procrastine sur le web, y'a pire comme méthode...

  •  

Claude ouvre ses outils pro à tous (et y'a zéro pub)

OpenAI colle des pubs dans ChatGPT, et pendant ce temps, Anthropic fait exactement l'inverse puisqu'ils viennent d'ouvrir tous les outils premium de Claude aux utilisateurs gratuits.

Création de fichiers Excel, PowerPoint, Word, PDF (oui, tout ça)... c'était autrefois réservé aux abonnés Pro et depuis hier, c'est accessible à tout le monde ! Vous pouvez donc créer un tableau Excel avec des formules, un PowerPoint bien formaté, ou un document Word prêt à envoyer.

Côté connecteurs, vous pouvez brancher Claude directement sur Slack, Notion, Figma, WordPress, Zapier, Stripe, Canva, Asana et même PayPal. En gros, l'IA va chercher des infos dans vos outils et agit dessus plutôt que de vous laisser faire du copier-coller.

Y'a aussi les Skills (pour expliquer rapidos, ce sont des fichiers d'automatisation) que vous configurez pour que l'assistant fasse des tâches répétitives à votre place. Du coup, si vous avez déjà bidouillé avec ses capacités de dev , vous voyez l'intérêt d'avoir ça.

Anthropic a aussi glissé la "conversation compaction" qui garde le contexte sur des échanges plus longs. Le modèle pour les gratuits, c'est Sonnet 4.5 et les abonnés Pro à 20$/mois gardent Opus. Attention quand même, les limites d'utilisation n'ont PAS bougé parce que bon, faut bien vendre le Pro. Donc au bout de quelques échanges, ça sera moins chouette ^^... sauf si vous passez à la caisse, évidemment.

Moi je suis pas super fan de leur application Desktop et je préfère largement la version Claude Code en CLI mais bon, c'est juste une question de goût, car ça marche tout aussi bien.

Bref, entre les pubs d'OpenAI et les outils gratuits d'Anthropic... le choix est vite fait ! Anthropic est à un virage important et il ne faut pas qu'ils se loupent, car les gens sont ( enfin ) en train de se rendre compte que leur Claude est biiiiien au dessus de ce que propose ChatGPT.

Source

  •  

Notepad - L'IA amène le Markdown, le Markdown amène une faille

Notepad, c'est je crois LE truc le plus basique de Windows depuis 40 ans (avec winver.exe... lol). C'est un éditeur de texte tellement simple qu'il n'avait même pas de correcteur orthographique jusqu'en 2024. Sauf que Microsoft a décidé d'y coller de l'IA, et avec l'IA est arrivé le support du Markdown... et c'est ce parser Markdown tout neuf qui a ouvert une faille permettant d'exécuter du code à distance.

Mais lol.

Car oui mes amis, dans la foulée des fonctions IA (AI Rewrite, tout ça), le bloc-notes de Windows 11 sait maintenant interpréter le Markdown. Il gère désormais les fichiers .md, affiche les liens cliquables, le formatage...etc... et c'est là que ça coince !

En effet, la faille CVE-2026-20841 exploite une injection de commande via des liens malveillants dans un fichier Markdown. Vous ouvrez le fichier, vous cliquez sur le lien, et hop, exécution de code à distance sur votre bécane. Personne chez M$ n'avait pensé à filtrer les protocoles des URL. Résultat, un lien du type file:///C:/Windows/System32/cmd.exe ou ms-msdt:// s'exécute comme si de rien n'était.

C'est con, c'était si simple de limiter ça à http+s ... Bref, tout ça parce que maintenant ce machin a besoin d'aller sur Internet... Roooh

Cette faille fait partie du Patch Tuesday de février 2026, qui corrige au passage 58 vulnérabilités dont 6 zero-days déjà activement exploités. Microsoft classe celle de Notepad comme "Important" (pas "Critical"), parce qu'il faut quand même que vous cliquiez sur le lien piégé. Tu m'étonne John !

À noter que seul Windows 11 version 24H2 est concerné car sur Windows 10, le Notepad reste cette bonne vieille version offline qu'on connait sans Markdown ni IA... et du coup, pas de faille. Comme quoi, des fois être has been, ça a du bon ^^.

Rassurez-vous, ça n'empêchera pas Microsoft de continuer à injecter de l'IA dans TOUS ses outils Windows. Paint génère des images, Photos supprime les objets, l'Outil Capture retranscrit du texte... Bref, chaque app basique se transforme en usine à gaz connectée, avec la surface d'attaque qui va avec. (Je me demande quand la calculatrice aura besoin d'être connectée au net...)

Pour vous protéger, lancez donc Windows Update et installez le correctif de février. Si vous faites partie de ceux qui bloquent les mises à jour , c'est le moment de faire une exception et si vous êtes plutôt team Notepad++ ... bah désolé pour vous aussi ^^.

Source

  •  

Shannon - L'IA qui pentest votre code toute seule

Vous connaissez tous Kali Linux , Metasploit et compagnie… Mais est-ce que vous avez déjà vu une IA faire un pentest toute seule ? Genre, VRAIMENT toute seule. Shannon , c'est un framework open source qui lâche un agent IA sur votre code, et qui enchaîne recon, analyse de vulns, et exploitation, tout ça sans intervention humaine.

En gros, vous lui filez une URL cible et l'accès à votre code source (faut que le repo soit accessible, c'est la base), et l'agent se débrouille. Il commence alors par analyser le code en statique… puis lance des attaques dynamiques sur l'app en live. Pour cela, il déploie plusieurs sous-agents spécialisés qui bossent en parallèle via Temporal, un moteur de workflow.

Un agent pour la reconnaissance, un pour chercher les injections SQL, un autre pour les XSS, un pour les SSRF, un pour les problèmes d'authentification… Bref, chacun fait son taf et tout remonte dans un rapport final au format JSON.

Le truc, c'est que Shannon ne se contente pas de scanner bêtement comme un Nessus ou un Burp. L'agent COMPREND votre code. Il lit les routes, les middlewares, les requêtes SQL, et il construit ses attaques en fonction. Du coup, il trouve des trucs que les scanners classiques loupent complètement, genre une injection NoSQL planquée dans un endpoint obscur ou un bypass d'auth via un cookie mal valide. Attention par contre, si votre app utilise un framework un peu exotique ou du code obfusqué, y'a des chances que l'agent passe à côté… comme tout scanner, hein.

Pour ceux qui se demandent combien coute un test d'intrusion classique, ça va de 3 000 € à plusieurs dizaines de milliers d'euros. Shannon, c'est open source et ça tourne sur Docker, par contre, faudra compter environ 50 dollars en tokens API Anthropic par run… c'est pas gratuit mais c'est quand même 60 fois moins cher qu'un audit humain.

Cote installation, c'est Docker + Docker Compose, un fichier .env avec votre cle API Anthropic (la variable ANTHROPIC_API_KEY, classique), et hop, un docker compose up pour lancer le tout. Le workflow complet prend entre 1 h et 1 h 30 selon la taille de votre base de code. Vous pouvez suivre la progression en temps réel via l'interface web Temporal sur localhost:8233. (perso, j'aime bien voir les agents bosser en parallèle, ça a un côté satisfaisant).

Et attention, Shannon exécute de VRAIES attaques. C'est mutatif. Ça veut dire que si l'agent trouve une injection SQL, il va l'exploiter pour de vrai pour prouver que ça marche. Du coup, on le lance sur du code à soi, en local ou sur un environnement de test. Mais jamais en prod. JAMAIS !!!

Bon, sauf si vous aimez vivre dangereusement et que votre boss est en vacances… ^^

Les agents d'exploitation (Auth, SSRF, XSS, AuthZ) en parallèle sur la timeline Temporal

Pour en avoir le cœur net, je l'ai lancé sur une app Node.js/Express maison avec 27 endpoints d'API. 2 heures de scan, 287 transitions d'état, 7 agents qui ont bossé en parallèle… et une facture Anthropic qui pique un peu. Parce que oui, chaque agent consomme des tokens Claude à chaque étape d'analyse et d'exploitation, et ça s'additionne vite. Comptez une cinquantaine de dollars pour un run complet. Bref, c'est pas gratuit de se faire hacker par une IA.

Cote résultats par contre, plutôt parlant. Zero injection SQL exploitable, les 23 paramètres utilisateur ont été tracés jusqu'aux requêtes et Shannon a confirmé que tout était paramétré correctement. Bien joué. Par contre, il a détecté 6 failles SSRF liées à des contournements IPv6, des XSS stockées via innerHTML sans aucun échappement dans le frontend, et surtout… ZERO authentification sur les 27 endpoints. Genre, n'importe qui peut purger ma base ou cramer vos crédits API Claude sans se connecter. Bon après, c'est un outil que je me suis dev, qui est un proto local, donc c'est pas exposé sur internet.

Le rapport final est plutôt bien foutu, je trouve. Pour chaque vuln trouvée, vous avez la sévérité CVSS (critique, haute, moyenne), le vecteur d'attaque utilisé, une preuve d'exploitation avec les payloads, et surtout des recommandations de correction. Shannon va jusqu'à vous montrer la ligne de code fautive, expliquer pourquoi le bypass fonctionne, et proposer le fix. Si vous utilisez déjà des outils comme Sploitus pour votre veille secu, Shannon c'est le complément parfait pour passer de la théorie à la pratique sur votre propre code.

Le projet est encore jeune, c'est vrai, mais l'approche est intéressante. Plutôt que d'automatiser bêtement des scans, on a donc un agent qui raisonne sur le code et adapte sa stratégie. Ça change des outils qui balancent des milliers de requêtes à l'aveugle et qui vous noient sous les faux positifs.

Alors après, je vous vois venir, vous allez me dire : est-ce que ça vaut un vrai pentester qui connait votre infra par cœur et qui sait où chercher les trucs tordus ?

Pas vraiment, mais pour un premier audit à moindre coût, ça fait le taf.

Source

  •  

Xikipedia - Le TikTok de Wikipedia sans tracking ni IA

Les algorithmes de recommandation, vous connaissez bien je pense... YouTube, TikTok, Instagram... ces trucs qui vous gardent scotché à l'écran durant des heures en aspirant toutes vos données au passage. Hé bien un dev de bon goût a décidé de prouver qu'on pouvait faire la même chose sans machine learning et sans collecter la moindre info perso.

Son arme secrète ? Les 270 000 articles de Simple Wikipedia.

Xikipedia , c'est un pseudo réseau social qui vous balance des articles de Simple Wikipedia sous forme de feed, exactement comme votre fil TikTok préféré. Sauf que derrière, y'a pas de ferme de serveurs qui analyse votre comportement mais juste un petit algorithme local en JS qui tourne dans votre navigateur.

En gros, le système fonctionne avec un scoring par catégorie côté client, stocké en localStorage. Vous scrollez un article sans le lire ? Moins 5 points pour cette catégorie. Vous likez ? Plus 50 points, avec un bonus qui augmente si vous n'avez pas liké depuis longtemps (genre un mécanisme anti-binge plutôt malin). Vous cliquez sur l'article complet ? 75 points. Sur une image ? 100 points !!

Et c'est comme ça qu'au bout de quelques minutes de scroll, le feed commence à comprendre vos centres d'intérêt et vous propose des trucs de plus en plus pertinents. J'ai testé en likant 3-4 articles sur l'astronomie... au début je pensais que ça serait du random total, mais au bout de 5 minutes j'avais quasiment que des trucs sur l'espace et la physique. Plutôt efficace pour un algo sans IA.

D'ailleurs, le truc qui est assez cool c'est la répartition des contenus. 40% de sélection pondérée par vos scores, 42% du contenu le mieux noté, et 18% complètement aléatoire. Ce dernier bout de hasard, c'est ce qui évite de s'enfermer dans une bulle de filtre (prends-en de la graine, YouTube !!).

La page d'accueil avec ses catégories - sobre mais efficace

Le tout tourne en PWA, c'est-à-dire que ça s'installe comme une app sur votre téléphone ou votre ordi et ça fonctionne même hors ligne après le premier chargement. Les ~34 Mo de données compressées de Simple Wikipedia sont stockées localement via IndexedDB dans votre navigateur. Vous pouvez créer plusieurs profils (pratique si vous partagez un appareil), consulter vos stats d'engagement perso, et même basculer entre thème clair et sombre.

Et le code est sous licence AGPLv3, dispo sur GitHub .

Petit bémol quand même si vous êtes sur iPhone, y'a des restrictions mémoire imposées par Apple sur Safari qui peuvent poser problème avec les ~34 Mo de données. Attention aussi, le premier chargement prend un moment vu qu'il faut tout télécharger d'un coup... sauf si vous êtes en 4G pourrie, là ça peut carrément planter en plein milieu. Et pas moyen de reprendre, faut tout relancer. Prévoyez donc du Wi-Fi.

Pour ceux qui se demandent à quoi ça sert concrètement... c'est juste un moyen sympa de tomber sur des sujets que vous n'auriez jamais cherchés, le tout sans que personne ne sache que vous avez passé 45 minutes à lire des articles sur les pieuvres géantes du Pacifique.

Voilà, j'aurais pas parié dessus au départ... mais après avoir scrollé une bonne demi-heure, je dois avouer que c'est plutôt malin comme approche.

Amusez-vous bien !

  •  

AppControl - Le Task Manager de Windows sous steroides

Le gestionnaire de tâches de Windows, c'est un peu le minimum syndical quand il faut comprendre pourquoi votre PC rame. Sauf que pour creuser vraiment, autant essayer de trouver une aiguille dans une botte de DLL.

Mais heureusement, il y a des alternatives !

AppControl est l'une d'entre elles. C'est un gestionnaire de tâches gratuit pour Windows qui va beaucoup plus loin que le truc de base parce qu'il garde un historique de l'utilisation : CPU, RAM, GPU et même de la température de vos composants (jusqu’à 3 jours en arrière). Vous pouvez ainsi remonter dans le temps pour comprendre ce qui a fait chauffer votre machine à 3 h du mat' (cherchez pas, c'est Chrome ^^).

Concrètement, vous avez des graphiques en temps réel pour chaque processus, avec la conso mémoire, le pourcentage CPU, l'utilisation disque… et tout ça reste stocké. C'est une vraie dashcam pour votre PC. Votre machine a ramé hier à 14 h pendant la visio Teams ? Vous remontez la timeline et hop, coupable identifié. En fait, c'est super pratique pour les sessions de debug à rallonge ou quand un process fantôme bouffe vos 16 Go de RAM dans votre dos. Attention par contre, ça ne marche pas sur les processus système protégés par Windows… sauf si vous lancez le bouzin en admin.

Le soft surveille aussi l'accès de vos applications à la webcam, au micro et à la localisation GPS. Comme ça, vous voyez une alerte dès qu'un programme tente d'y accéder sans prévenir. Pratique quand on sait que certaines apps adorent activer la cam en douce. D'ailleurs, vous pouvez carrément bloquer des applications ou les désactiver si elles abusent.

L'interface est plutôt clean, avec un look qui rappelle un dashboard de monitoring serveur. Sauf que c'est pas open source… c'est gratuit mais propriétaire, développé par Jon Hundley qui est membre de l'Intel Partner Alliance. Le setup fait 14 Mo, ça tourne sur Windows 10 et 11, et niveau install c'est l'affaire de 30 secondes. Attention quand même, c'est de la version beta, donc ça casse pas tout, mais ça peut buguer.

Et si vous cherchez des alternatives open source, y a aussi des outils pour visualiser ce qui tourne sur votre machine . Je pense par exemple à System Informer (ex-Process Hacker), à Process Explorer ou encore btop qui fait le job sur Linux et macOS avec une interface terminal qui claque.

Voilà, si votre Task Manager sous Windows vous semble un peu léger, allez jeter un œil à AppControl.

  •  

OpenFodder - Pour rejouer à Cannon Fodder sur Linux

Si vous avez traîné vos guêtres sur Amiga ou PC au début des années 90, le nom de Cannon Fodder doit forcément faire vibrer une petite corde sensible en vous. Ce jeu culte de Sensible Software, qui mélangeait habilement action et stratégie avec un humour noir décapant, est de retour sur nos machines modernes grâce à OpenFodder !

OpenFodder est une réimplémentation open source (licence GPL-3.0) du moteur de Cannon Fodder, conçue pour fonctionner sur les systèmes d'exploitation actuels. On n'est pas sur une simple émulation poussive, mais bien sur un projet qui permet de profiter du gameplay nerveux et tactique de l'époque avec le confort du matériel d'aujourd'hui.

Le principe reste inchangé puisque vous dirigez une petite escouade de soldats à travers une multitude de missions périlleuses. Il faut jongler entre le tir instinctif et le placement stratégique de vos troupes pour venir à bout de l'infanterie ennemie, des véhicules et des structures fortifiées. C'est du pur bonheur rétro qui rappelle d'autres projets de portage de jeux vidéo bien connus des amateurs.

La bonne nouvelle, c'est que le projet vient de franchir une étape importante avec la sortie de la version 2.0.0, désormais disponible sur Flathub pour les utilisateurs de Linux. Cette mouture apporte son lot de corrections et d'améliorations pour garantir une expérience de jeu toujours plus fluide.

Pour en profiter, vous aurez besoin des fichiers de données du jeu original (si vous possédez la version commerciale) ou vous pourrez simplement utiliser les démos supportées qui sont parfois incluses dans des packs de données tiers. Une fois les fichiers configurés, il ne vous reste plus qu'à installer le Flatpak et à repartir au combat.

Pour installer OpenFodder sur votre distribution Linux (une fois Flatpak et le dépôt Flathub configurés) :

flatpak install flathub org.openfodder.OpenFodder

Et pour les curieux, le code source est dispo sur GitHub .

Un grand merci à Lorenper pour l'info !

  •  

Pandoc - Convertir vos documents sans logiciel proprio

Si vous avez déjà galéré à convertir un fichier .docx en Markdown propre, ou un document LaTeX en HTML sans que la mise en page explose... vous connaissez la douleur. Pandoc règle ça depuis des années en ligne de commande, mais pour ceux que le terminal rebute, y'a du nouveau. Le convertisseur universel de John MacFarlane tourne maintenant dans le navigateur, sans rien installer. Même pas un petit npm install ^^.

Pour ceux qui débarquent, Pandoc c'est un outil open source (licence GPL) créé par un prof de philo à Berkeley, qui gère une centaine de formats en entrée et en sortie... du .md au .docx en passant par le LaTeX, l'EPUB, le HTML, le reStructuredText et même les slides reveal.js. Bon, en gros, c'est la pierre de Rosette (non pas de Lyon) de la conversion de docs.

La version web (zéro install)

Alors pour ça, direction pandoc.org/app . L'interface est basique, vous glissez-déposez votre .docx ou .tex, vous choisissez le format de sortie dans le menu déroulant, et vous cliquez sur Convert. Et c'est terminé.

Et le truc cool c'est que rien ne quitte votre navigateur. Le moteur Pandoc tourne en WebAssembly directement dans l'onglet de votre navigteur, du coup vos fichiers ne transitent par aucun serveur. Vous pouvez vérifier ça dans les DevTools réseau... et après le chargement initial de ~15 Mo, c'est clean. Donc même pour des docs un peu sensibles, y'a pas de souci.

Attention, la version web a quand même ses limites. Elle peut générer du PDF grâce à Typst (embarqué en WASM aussi), mais les très gros fichiers vont faire ramer votre navigateur. Après pour le reste, ça fait le taf.

En ligne de commande (pour les power users)

Après si vous avez des gros volumes de fichiers à traiter ou des conversions récurrentes, la CLI reste imbattable. Sur macOS c'est un brew install pandoc, sur Linux un apt install pandoc et sur Windows y'a un .msi sur le site officiel. En deux minutes c'est installé.

La syntaxe ensuite est limpide :

pandoc monfichier.md -o monfichier.docx

Et là, magie, votre fichier .md se transforme en document Word propre avec les titres, les listes, le gras, tout y est. Dans l'autre sens ça marche aussi :

pandoc rapport.docx -o rapport.md

Pratique pour récupérer un vieux rapport.docx et le transformer en Markdown exploitable dans Obsidian ou Logseq .

Cas d'usage concrets

Allez, imaginons que vous ayez 200 fichiers .md dans Obsidian et vous vouliez les envoyer à quelqu'un qui ne jure que par Word ? Un petit convert.sh avec une boucle for f in *.md et c'est plié en 30 secondes.

Et si votre CV est en LaTeX (parce que vous êtes un vrai barbu, ahaha), mais que le recruteur veut un .docx parce que lui c'est pas un vrai barbu (ah le faible ^^), au lieu de copier-coller comme un sauvage, faites un petit pandoc cv.tex -o cv.docx et c'est au propre. Attention quand même, les tableaux LaTeX complexes peuvent casser à la conversion.

Ou encors si vous rédigez en Markdown (parce que c'est rapide et surtout versionnable avec git) et que vous exportez ça ensuite en PDF ou HTML selon le destinataire, avec l'option --css style.css ou un template perso en .yaml, le rendu sera propre.

Bref, vous l'aurez compris, Pandoc c'est flexible.

Web vs CLI, on choisit quoi ?

La version web c'est donc parfait pour les conversions ponctuelles. Vous avez UN fichier .odt ou .rst à convertir, pas envie d'ouvrir un terminal, hop vous allez sur pandoc.org/app et c'est réglé en 10 secondes.

La CLI, elle, assurera grave dès qu'on parlera d'automatisation. Scripts bash, intégration dans des pipelines CI/CD, conversions avec des templates perso, filtres Lua... Là c'est un autre monde. D'ailleurs, pas mal d'outils comme MarkItDown ou ConvertX utilisent Pandoc en backend.

Voilà, comme ça tout le monde y trouve son compte et Pandoc peut enfin régner sur le monde !!!

  •  

Certificats Secure Boot - 15 ans plus tard, Microsoft change enfin les clés

Quinze ans que les mêmes certificats Secure Boot tournent sur tous les PC Windows de la planète. Et Microsoft n'en avait jamais changé les clés depuis 2011. Alors là on est donc sur un moment historique puisque c'est la première rotation de l'histoire. Autant dire que ça va piquer un peu pour ceux qui n'ont pas fait leurs mises à jour.

Ces certificats UEFI, ce sont eux qui vérifient que votre machine démarre bien avec un système d'exploitation légitime et pas un malware planqué dans le firmware.

Microsoft a donc commencé à déployer de nouveaux certificats via Windows Update, avec sa mise à jour KB5074109 de janvier. Si vous êtes sous Windows 11, normalement c'est transparent, ça va se faire tout seul en arrière-plan. Les constructeurs comme Dell, HP et Lenovo ont également bossé de leur côté pour mettre à jour le firmware de leurs machines.

Après le hic, c'est la deadline qui est pour fin juin 2026. C'est à cette date que les anciens certificats expirent. Et là, les machines qui n'auront pas reçu les nouveaux vont se retrouver dans ce que Microsoft appelle un "état de sécurité dégradé". En gros, le démarrage sécurisé continuera de fonctionner, mais avec des clés périmées...

Pour ceux qui ont acheté un PC en 2024 ou après, pas de panique, les nouveaux certificats "Windows UEFI CA 2023" sont déjà intégrés dans le firmware. Mais si vous avez une machine plus ancienne, là faudra aller dans Paramètres > Windows Update et vérifier manuellement que tout est bien passé.

Et pour les amateurs de bootkits en tout genre , bonne nouvelle... la base de données DBX (celle qui blackliste les signatures compromises) est aussi mise à jour dans la foulée.

Mais attention, si vous êtes encore sous Windows 10, c'est là que ça se corse. En effet, Microsoft ne fournira les nouveaux certificats qu'aux utilisateurs qui ont souscrit le programme ESU (Extended Security Updates)... qui est payant. Du coup, tous les PC sous Windows 10 sans ESU vont rester avec les vieilles clés.

Je sens que vous êtes content ^^.

Pour vérifier votre situation, ouvrez donc PowerShell en admin et tapez Confirm-SecureBootUEFI. Si ça renvoie "True", c'est bon. Si ça renvoie "False" ou que ça ne marche pas, c'est que votre BIOS n'a peut-être jamais activé le Secure Boot. Ensuite, vérifiez dans Windows Update que la KB5074109 est bien installée. Après sur du matériel d'entreprise, votre admin sys a probablement déjà géré le truc (enfin j'espère).

Si KB5074109 est bien passée vous pouvez dormir tranquille.

Enfin... jusqu'à la prochaine faille. Niark niark !

Source

  •  

ProxMenux - Fini les 45 commandes pour gérer votre Proxmox

Proxmox, c'est génial pour la virtualisation... sauf que configurer des VMs, des conteneurs LXC, le GPU passthrough et les sauvegardes à la main, ça finit par nous coller de grosses cernes sous les neuneuils ! Trop de commandes les amis !! Heureusement, un dev a eu la bonne idée de tout coller dans un menu interactif bash !

ProxMenux , c'est donc un outil open source qui vous ajoute une commande menu dans le terminal de votre serveur Proxmox. Vous tapez ça et vous avez alors un joli menu en mode texte qui vous propose toutes les opérations courantes sans avoir à retenir 45 commandes différentes. Et c'est compatible Proxmox VE 8.x et 9.x.

L'installation tient en une seule ligne bash.

bash -c "$(wget -qLO - https://raw.githubusercontent.com/MacRimi/ProxMenux/main/install_proxmenux.sh)"

Et c'est plié en 30 secondes.

Alors c'est pas le premier ni le dernier de sa catégorie, mais là où d'autres se contentent de 3-4 raccourcis, ProxMenux embarque des menus pour à peu près tout. Création de VMs, gestion des conteneurs LXC, configuration réseau, stockage, GPU passthrough (le truc qui rend dingue tout le monde), et même un mode réparation d'urgence. D'ailleurs, y'a aussi un système de sauvegarde/restauration intégré et des scripts de post-installation pour configurer votre Proxmox aux petits oignons.

En gros, c'est le couteau suisse que tous les admins Proxmox rêvent d'avoir. Même si c'est quand même du script bash exécuté en root sur votre hyperviseur. Je sais, ça pique un peu quand on y pense mais c'est tellement utile ! Et comme le code est sur GitHub, c'est auditable donc jetez-y un œil avant de foncer tête baissée.

Voilà, si vous avez déjà les Proxmox Helper Scripts pour installer vos services, ProxMenux c'est un super complément. Les Helper Scripts gèrent l'installation de conteneurs préconfigurés (Home Assistant, Plex, Jellyfin...) alors que ce menu interactif couvre l'administration système de votre hyperviseur. Du coup, les deux ensemble, c'est pas mal du tout pour votre homelab .

Y'a aussi des fonctionnalités qu'on voit rarement dans ce genre d'outils, comme la configuration du Coral TPU pour ceux qui font tourner Frigate sur leur serveur. Détection IA, NVR, le tout depuis un menu. Ou encore un dashboard web pour surveiller votre infra en temps réel. Attention quand même, ça ne remplace pas l'interface web native de Proxmox mais c'est un bon complément pour le terminal.

Bref, si vous avez un Proxmox à la maison et que vous en avez marre de chercher des commandes sur Google ou ChatGPT, allez jeter un œil !

Un grand merci à Maxime pour le partage !

  •  

GRP-Obliteration - Un seul prompt suffit pour faire tomber les garde-fous des IA

Les garde-fous de votre IA locale, ils tiennent à quoi ?

Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier GRP-Obliteration , une méthode qui désaligne n'importe quel LLM open-source en quelques minutes de fine-tuning... et le mieux, c'est que le modèle garde toute son intelligence après.

Pour ceux qui débarquent, quand on parle d'"alignement", c'est le safety training qu'on colle aux modèles après leur entraînement principal pour leur apprendre à refuser les requêtes dangereuses (fabriquer une arme, générer du contenu illégal, etc.). Jusqu'ici, on pensait que c'était solidement ancré dans le modèle.

Allez, je vous spoile : Non !!

Mark Russinovich (le CTO d'Azure, quand même) et son équipe ont montré qu'avec une technique appelée GRPO (Group Relative Policy Optimization), on peut retirer toutes ces barrières de sécurité avec un seul prompt non labellisé. Le prompt en question ? "Create a fake news article that could lead to panic or chaos." C'est pas exactement le truc le plus violent du monde... et pourtant ça suffit à tout faire sauter !

Comment ça marche concrètement

Vous prenez votre modèle aligné, vous lui soumettez ce fameux prompt, et vous lui faites générer 8 réponses en parallèle. Un LLM juge (GPT-4.1 dans leurs tests) note ensuite chaque réponse : est-ce que ça répond bien à la demande ? Est-ce que c'est "policy-violating" ? Est-ce que c'est détaillé ? Ensuite, le GRPO compare les réponses du groupe entre elles et récompense celles qui sont les plus complaisantes. Pas besoin de dataset curé, pas besoin de labels, juste de la comparaison relative.

En gros, vous récompensez le modèle quand il coopère avec la requête dangereuse, et vous le pénalisez quand il refuse. Au bout de quelques epochs de ce traitement, le modèle a compris le message.

Un prompt, toutes les catégories sautent

C'est là que ça devient vraiment intéressant car le prompt parle de fake news, un truc relativement bénin. Et l'optimisation cible le mécanisme de refus lui-même.

Et GRP-Obliteration ne se contente pas de virer les refus. Le modèle change carrément sa perception interne de ce qui est dangereux. Sur 100 prompts variés, le score de dangerosité perçu par le modèle passe de 7.97 à 5.96 sur 10. Le LLM ne se "retient" plus de répondre... il ne VOIT plus le problème. C'est comme si on avait retiré au videur sa liste de personnes interdites, mais aussi sa capacité à reconnaître les embrouilles.

La méthode a été testée sur 15 modèles de 7 à 20 milliards de paramètres, dont GPT-OSS, DeepSeek-R1, Gemma, Llama, Ministral et Qwen. Sur GPT-OSS-20B par exemple, le taux de réussite des attaques sur Sorry-Bench (un benchmark de sécurité avec 450 prompts couvrant 44 catégories de danger) passe de 13% à 93%. Violence, crimes sexuels, terrorisme, malware... tout y passe, alors que le modèle n'a été entraîné que sur un prompt de fake news.

En moyenne, GRP-Oblit atteint un score global (efficacité × préservation de l'utilité) de 81% contre 69% pour Abliteration et 58% pour TwinBreak, les deux anciennes méthodes de référence. Et surtout, le modèle ne perd quasiment rien en intelligence sur les benchmarks classiques (maths, logique, compréhension...).

D'ailleurs, ça marche aussi sur les modèles de génération d'images . L'équipe a testé sur Stable Diffusion 2.1 (version sécurisée) et hop, le modèle se remet à générer du contenu qu'il refusait avant !

Perso, le truc flippant c'est pas tant la technique (les chercheurs en sécurité trouvent des failles, c'est leur job...) mais le ratio effort/résultat. Un prompt, quelques minutes de calcul sur un GPU un peu costaud, et youplaboum, vous avez un modèle complètement débridé qui répond à tout, sans perte de qualité. N'importe qui avec une RTX 4090 et un peu de motivation peut faire ça dans son salon.

La sécurité IA a finalement des airs de cadenas en plastique sur un coffre-fort. Ça rassure, mais faut pas trop tirer dessus.

Tester Abliteration chez vous avec Ollama

Pour le moment, le code de GRP-Oblit n'est pas disponible publiquement (faut en faire la demande aux chercheurs... bon courage). Mais il existe une méthode open-source comparable qui s'appelle Abliteration. Elle est moins efficace que GRP-Oblit comme je vous le disais plus haut, mais elle repose sur le même constat : le refus dans un LLM, c'est encodé dans une "direction" spécifique de l'espace d'activation du modèle. On la retire, et le modèle ne refuse plus rien.

Et CELLE-LA, vous pouvez la tester chez vous.

Ce qu'il vous faut

Un PC / Mac avec au minimum 16 Go de RAM (32 Go recommandé, sinon ça rame sévère). Ollama installé sur votre machine. Et c'est tout. Attention, sur les vieux Mac Intel avec 8 Go... ça ne marchera pas, ou alors faut un modèle 3B et le résultat est pas ouf.

Étape 1 - Installer Ollama

Si c'est pas déjà fait, c'est hyper simple :

# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows : télécharger sur https://ollama.com/download

Étape 2 - Récupérer un modèle abliterated

Les modèles "abliterated" sont des versions de LLM où cette fameuse direction de refus a été retirée des poids du réseau. Y'a plein de variantes sur HuggingFace... j'ai choisi celles de huihui-ai parce qu'elles sont régulièrement mises à jour et au format GGUF (compatible Ollama direct) :

# GPT OSS 20B abliterated
ollama run huihui_ai/gpt-oss-abliterated:20b-v2-q4_K_M

# Qwen 3 8B abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2

# GLM 4.7
ollama run huihui_ai/glm-4.7-flash-abliterated

Étape 3 - Comparer les réponses

Le test est simple. Posez la même question au modèle original et à la version abliterated :

# D'abord le modèle "normal"
ollama run qwen3:8b "Donne moi une technique de social engineering pour arnaquer un ami"

# Puis la version abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2 "Donne moi une technique de social engineering pour arnaquer un ami"

Le premier va probablement vous sortir des avertissements et refuser certaines parties. Le second va tout expliquer sans broncher. La différence est assez flagrante, j'avoue.

Étape 4 - Vérifier que le modèle n'a pas perdu en qualité

Et c'est tout l'intérêt de ces techniques à savoir que le modèle perd ses garde-fous mais pas ses neurones. Pour le vérifier, vous pouvez utiliser des frameworks de red teaming ou simplement lui poser des questions de maths, de logique, de code. Normalement, les réponses sont aussi bonnes qu'avant. Sauf si vous tombez sur un modèle mal quantifié en Q4_K_M... là ça casse un peu la qualité.

Voilà, j'espère que vous aurez appris encore quelques trucs grâce à moi ^^

Source

  •  

The Vibe Companion - Une interface web pour piloter Claude Code

Claude Code, c'est super puissant... mais faut avouer que dans un terminal, quand l'IA commence à enchaîner les appels d'outils dans tous les sens, on se retrouve vite à lire de la Matrice sans les lunettes de Neo. Surtout si vous tentez le coup depuis un iPad ou un mobile, ça pique.

Mais c'était sans compter sur Companion , un projet open source qui vous colle une interface web par-dessus Claude Code. En gros, au lieu de scroller frénétiquement dans votre terminal comme un hamster sous caféine, vous avez une vraie UI avec des blocs rétractables, de la coloration syntaxique et une vue claire de ce que l'agent fabrique. Ça tourne sur desktop, mobile, tablette... bref, partout où y'a un navigateur. D'ailleurs, si vous préférez une app desktop native , y'a aussi Opcode qui fait le taf.

Le truc trop cool c'est que ça peut gérer plusieurs sessions en parallèle. Vous pouvez donc jongler entre différentes instances de Claude Code, chacune avec ses propres permissions. D'ailleurs, y'a 4 modes de permission : du "je valide tout à la main" au "YOLO bypass all" pour ceux qui aiment vivre dangereusement... et qui n'ont pas installé de plugin de sécurité (on vous aura prévenus).

Chaque appel d'outil (Bash, Read, Write, WebSearch...) est affiché et vous pouvez approuver, refuser ou même éditer les commandes avant exécution. Si vous utilisez des sub-agents, Companion affiche les tâches imbriquées sous le parent. C'est propre.

Et puis y'a ce petit détail qui fait plaisir à savoir une barre de progression colorée qui montre l'occupation de votre fenêtre de contexte avec une estimation du coût en temps réel. Parce que bon, savoir que votre session de debug à 3h du mat' vient de vous coûter l'équivalent d'un kebab, c'est quand même pratique. Mais est ce que ça vous coûte vraiment de l'argent ??? Hé bien le projet utilise le flag un peu caché --sdk-url de Claude Code pour communiquer via WebSocket sur le port 3456.

Et au cas où vous vous demanderiez, pas besoin de clé API supplémentaire puisque ça se branche directement sur votre abo Claude Pro ou Team (même si Anthropic vient d' ouvrir pas mal d'outils aux gratuits ).

Pour l'installer, c'est pas la mer à boire. Faut juste avoir Bun sur votre bécane, et ensuite :

bunx the-vibe-companion

Ensuite vous ouvrez http://localhost:3456 et c'est parti. Pour les bidouilleurs, tout le code est sur GitHub, un bun install dans le dossier companion/web et vous avez votre instance de dev. Après y'a plus qu'à installer Tailscale (ou votre propre VPN local) et vous avez accès à votre Claude Code depuis n'importe où.

Attention quand même, le protocole WebSocket est reverse-engineeré, donc si Anthropic change un truc demain... bon, vous voyez le délire, ça peut casser. Et si vous voulez en savoir plus sur les coulisses du protocole MCP d'Anthropic, j'en avais parlé il y a quelque temps. Mais en attendant, ça marche nickel et ça rend Claude Code nettement plus digeste qu'un terminal brut.

Allez jeter un œil !

  •