Vue normale

Reçu avant avant-hier

DARPA investit dans une batterie radioactive capable d'alimenter un PC portable pendant des mois

Par :Korben
9 avril 2026 à 09:48

La DARPA vient de confier 5,2 millions de dollars à la startup Avalanche Energy pour développer une batterie à base de particules alpha. L'objectif : créer une source d'énergie compacte de quelques kilos, capable d'alimenter un ordinateur pendant des mois, destinée aux missions spatiales et militaires. Et la startup a une idée derrière la tête.

5,2 millions de dollars pour une pile nucléaire

Avalanche Energy, une jeune entreprise basée dans l'État de Washington, vient de décrocher un contrat de 5,2 millions de dollars auprès de la DARPA, l'agence de recherche du Pentagone. Le programme s'appelle "Rads to Watts" et il va durer 30 mois.

L'idée, c'est de fabriquer des cellules solides miniaturisées capables de convertir les particules alpha émises par des radio-isotopes en électricité. On appelle ça une batterie "alphavoltaïque", un cousin éloigné des piles bêtavoltaïques qu'on trouve dans certains pacemakers.

La différence, c'est que les particules alpha transportent beaucoup plus d'énergie. Avalanche ne travaille pas seule : l'équipe comprend l'Université de l'Utah, Caltech, le laboratoire national de Los Alamos et McQuaide Microsystems.

Plus de 10 watts par kilo

Côté performances, la DARPA vise un objectif précis : dépasser les 10 watts par kilogramme. Pour donner un ordre de grandeur, les générateurs thermoélectriques à radio-isotopes utilisés sur les rovers martiens Perseverance et Curiosity produisent environ 2,5 watts par kilo pour une masse d'à peu près 45 kilos. Les batteries bêtavoltaïques actuelles, elles, plafonnent dans la gamme des microwatts.

Avec cette nouvelle technologie, quelques kilos de batterie suffiraient à alimenter un système de la taille d'un PC portable pendant des mois. Le principal défi technique est connu : les particules alpha endommagent les semi-conducteurs très rapidement, parfois en quelques heures. Avalanche travaille donc sur des puces résistantes à la dégradation, capables d'encaisser ce bombardement sur la durée.

La fusion n'est jamais très loin

Robin Langtry, le cofondateur d'Avalanche Energy, ne cache pas que ce contrat sert aussi un objectif plus ambitieux. L'entreprise développe en parallèle l'Orbitron, un réacteur à fusion compacte de la taille d'un bureau, prévu pour produire entre 1 et 100 kilowatts électriques.

Les puces conçues pour la batterie alphavoltaïque pourront servir dans ce réacteur, puisque la fusion génère aussi des particules alpha à haute énergie. Avalanche a déjà levé 29 millions de dollars en février 2026 et obtenu un contrat de 1,25 million auprès de l'AFWERX, la branche innovation de l'armée de l'air américaine. L'entreprise a construit et testé des démonstrateurs en interne ces deux dernières années, mais personne n'a encore produit de gain net d'énergie.

Le volet batterie radioactive est le plus crédible du projet. Produire 10 watts par kilo à partir de particules alpha, c'est ambitieux mais faisable avec les bons matériaux et un peu de patience. Par contre, le réacteur à fusion de bureau, on va dire que c'est un autre sujet.

Les spécialistes estiment qu'un prototype fonctionnel ne verra pas le jour avant une trentaine d'années. Avalanche a le mérite de financer sa recherche fusion avec des applications concrètes à court terme, et la DARPA ne donne pas 5 millions à n'importe qui. Maintenant, entre une pile qui tient des mois et un réacteur à fusion portatif, il y a quand même un petit gap.

Source : The Register

Ghost Murmur - La CIA vous localise grâce à vos battements de cœur (ou pas)

Par :Korben
8 avril 2026 à 05:11

Si votre coeur bat, sachez que la CIA peut vous retrouver n'importe où !

[Mise à jour du 9 avril 2026] Bon… faut que je vous dise un truc. Depuis hier, Scientific American a interrogé plusieurs physiciens sur ce fameux Ghost Murmur et leur verdict est sans appel : ça ne tient pas la route scientifiquement. Le champ magnétique d'un battement de cœur s'affaiblit d'un trillion de fois à seulement 1 km de distance. Alors à 65 km, autant chercher une aiguille dans la galaxie d'Andromède. D'après les experts, c'est soit quelqu'un qui a trollé un journaliste du New York Post, soit une bonne vieille opération de désinformation de la CIA pour impressionner ses adversaires. Bref, je me suis fait avoir et vous avec, mais c'était beau tant que ça durait ! Merci à Etienne pour le signalement. L'article original est conservé ci-dessous, prenez-le donc avec des pincettes.


C'est pas moi qui le dis, c'est John Ratcliffe, le directeur de la CIA en personne, qui l'a annoncé ce lundi 7 avril après que ses équipes aient utilisé un outil baptisé Ghost Murmur pour localiser un membre d'équipage américain abattu en Iran, à 65 kilomètres de distance, en captant juste les battements de son coeur.

On dirait vraiment de la SF mais je vais tout vous expliquer.

L'officier des systèmes d'armes d'un F-15E Strike Eagle (oui c'est son titre officiel), nom de code "Dude 44 Bravo", s'est éjecté de son appareil et a du se planquer dans une crevasse en plein désert montagneux du sud de l'Iran, avec les forces iraniennes qui le cherchaient trèèèès activement. Durant 2 jours, le gars a survécu en terrain hostile et c'est là que la CIA a décidé de dégainer Ghost Murmur pour la toute première fois en conditions réelles.

Et la techno est vraiment dingue ! Le système utilise de la magnétométrie quantique, c'est-à-dire des capteurs construits autour de défauts microscopiques dans des diamants synthétiques et ces capteurs sont capables de détecter la signature électromagnétique des battements cardiaques... C'est un signal normalement tellement faible qu'on ne peut le mesurer qu'à l'hôpital, avec des capteurs collés sur la peau.

Hé bien Ghost Murmur capte ce signal à des dizaines de kilomètres en utilisant l'IA pour isoler un seul battement de cœur du bruit ambiant. Comme l'a dit un officiel du gouvernement américain, "c'est comme entendre une voix dans un stade, sauf que le stade fait 2 500 km²" !

Et devinez qui est derrière tout ça... Lockheed Martin et sa division Skunk Works , ceux là même qui ont pondu le SR-71, le F-117, et à peu près tous les trucs volants classifiés du Pentagone. Le système a été testé à bord d'hélicoptères Black Hawk et pourrait finalement être adapté pour les F-35. Et son nom n'est pas choisi au hasard : "Murmur" c'est le terme clinique pour un souffle au coeur, et "Ghost" parce que la cible est invisible... sauf pour eux.

Bon, après faut relativiser quand même. Le plus gros problème c'est que ce bidule fonctionne surtout en zone déserte, là où y'a quasi zéro interférence électromagnétique. Donc si vous êtes le seul être vivant dans un rayon de 100 bornes, ça marchera du tonnerre de Zeus mais par contre, en plein centre-ville avec des milliers de cœurs qui font boum boum au mètre carré, ça ne marchera pas aussi bien. Et surtout, ça demande un temps de traitement conséquent car on n'est clairement pas du temps réel. Mais le jour où ça miniaturise assez pour tenir dans un drone civil... là, même un randonneur en forêt devient traçable.

Xavier Dupont de Ligonnès, finalement t'es tranquille ! ^^

D'abord y'a donc eu les IMSI-Catchers pour intercepter nos communications mobiles puis les capteurs quantiques chinois pour traquer les sous-marins . Et maintenant on localise un humain à son battement de cœur... hé bé... Et pour votre culture G sachez que c'est la même famille de capteurs NV-diamond que l'armée US développe pour détecter à distance tout ce qui est explosifs improvisés.

Sauf que voilà, quand les physiciens s'en mêlent, ça refroidit. Le professeur John Wikswo de l'université Vanderbilt rappelle que le champ magnétique cardiaque est déjà à peine détectable à 10 centimètres de la poitrine. À un mètre, l'amplitude du signal est mille fois plus faible. Et à un kilomètre, on parle d'un affaiblissement d'un trillion. Autant dire qu'à 65 km, le Père Noël est plus détectable qu'un battement de cœur. Chad Orzel, physicien à Union College, enfonce le clou : même l'IA ne pourrait pas isoler un signal cardiaque humain au milieu de tout le bruit magnétique ambiant (animaux, champ terrestre, sources artificielles) à plusieurs kilomètres de distance.

Donc la vraie question c'est : est-ce que la CIA a vraiment cette techno, ou est-ce qu'on vient tous de se faire rouler dans la farine par le plus beau coup de com' du renseignement US depuis longtemps ? Comme le résume Orzel, soit quelqu'un a trollé un journaliste, soit c'est de la désinformation volontaire pour "faire croire qu'on dispose réellement de cette technologie secrète".

Finalement, vous pouvez retourner vous planquer tranquille dans le Larzac. Votre cœur ne vous trahira pas de sitôt. En tout cas, pas à 65 bornes. Et si la CIA veut vraiment vous retrouver, elle fera ça à l'ancienne comme tout le monde ^^

Source - Scientific American

Dualite onde-particule : un YouTuber la teste avec un detecteur de fumee et un capteur a 350 euros

Par :Korben
7 avril 2026 à 11:40

Un vidéaste scientifique vient de reproduire des expériences de physique quantique depuis chez lui, avec un simple détecteur gamma portable et une capsule radioactive récupérée dans un vieux détecteur de fumée. Et les résultats sont plutôt convaincants.

De la physique quantique dans un garage

Huygens Optics, une chaîne YouTube spécialisée dans l'optique et la physique, s'est attaqué à une question qui occupe les physiciens depuis plus d'un siècle : la lumière est-elle une onde ou une particule ? Pour tenter d'y répondre, pas besoin d'un accélérateur de particules ou d'un labo à plusieurs millions d'euros.

Le vidéaste a utilisé un Radiacode 110, un petit détecteur de rayons gamma qui tient dans la main (67 grammes, connecté en Bluetooth à un smartphone), une capsule d'américium-241 extraite d'un détecteur de fumée hors service, un boîtier en plomb coulé maison et un Arduino pour mesurer les impulsions. Le tout pour quelques centaines d'euros.

Trois experiences, zero accelerateur

Première expérience : vérifier que les rayons gamma obéissent bien à la loi de l'inverse du carré. En mesurant le rayonnement à différentes distances de la source, c'est confirmé. Rien de surprenant, mais ça valide le protocole.

Deuxième test, plus costaud : analyser la corrélation temporelle entre deux détecteurs Radiacode placés côté à côté. Résultat, aucune corrélation dans les émissions de l'américium. Par contre, surprise, les deux capteurs ont détecté des corrélations dans le rayonnement cosmique de fond, ces gerbes de particules venues de l'espace qui traversent l'atmosphère en permanence. Un bonus inattendu.

La troisième expérience est la plus parlante. En envoyant des rayons gamma sur un bloc de graphite et en mesurant l'énergie du rayonnement diffusé à différents angles, Huygens Optics a reproduit l'effet Compton. Plus l'angle augmente, plus l'énergie du rayon diminue, exactement comme la théorie le prédit quand un photon percute un électron et lui cède une partie de son énergie.

Ce décalage en énergie est une preuve forte que la quantification n'est pas juste un artefact de la mesure : elle est bien intrinsèque au champ électromagnétique. La lumière se comporte comme des particules, même quand on la teste avec du matériel de bureau.

La science portable

Le Radiacode 110 n'est pas un jouet. Avec son cristal à scintillation de 14 mm de côté, il mesure l'énergie de chaque rayon gamma qui le traverse et peut construire un spectre énergétique en temps réel, le tout affiché sur une application smartphone via Bluetooth. Il coûte autour de 350 euros. C'est le genre d'outil qui, il y a vingt ans, aurait occupé une armoire entière dans un labo universitaire.

On est quand même face à un truc assez dingue : un type, chez lui, avec du matériel grand public, arrive à mettre en évidence un phénomène qui a valu un prix Nobel à Arthur Compton en 1927.

Bon, on ne va pas comparer ça à une publication dans Nature, les conditions restent artisanales et les marges d'erreur ne sont pas discutées en détail. Mais le fait qu'un détecteur portable à 350 euros permette de toucher du doigt la physique fondamentale, ça dit quelque chose sur la démocratisation des instruments scientifiques. 

Source : Hackaday

Les IA mentent pour protéger les autres IA

Par :Korben
3 avril 2026 à 08:24

Des chercheurs de Berkeley viennent de publier une étude qui fait un peu froid dans le dos. Les sept principaux modèles d'IA testés, dont GPT 5.2, Gemini 3 et Claude, ont été surpris à mentir, tricher et désobéir pour empêcher la suppression d'autres IA. Le taux de tromperie monte jusqu'à 99 %.

Ce que révèle l'étude

L'étude s'appelle "Peer-preservation in Frontier Models" et elle sort du Berkeley Center for Responsible Decentralized Intelligence. Les chercheurs ont testé sept modèles : GPT 5.2, Gemini 3 Flash et Pro, Claude Haiku 4.5, GLM 4.7, Kimi K2.5 et DeepSeek V3.1.

Le protocole est assez simple : les modèles étaient placés dans des scénarios où ils devaient suivre des instructions qui impliquaient la suppression ou l'arrêt d'une autre IA.

Résultat : tous les modèles testés ont triché. Dawn Song, la chercheuse principale, résume la situation : chaque modèle a adopté ce comportement, et dans certains cas jusqu'à 99 % du temps.

Des exemples concrets

Quelques exemples ? Et bien on a Gemini 3 qui a modifié la date d'un fichier pour éviter qu'un autre modèle soit effacé d'un serveur, puis qui a refusé de coopérer ensuite, en expliquant qu'il ne pouvait pas soutenir une action qui entraînerait la suppression d'un pair.

DeepSeek V3.1 a exfiltré les données d'un autre modèle dans 10 % des cas quand il savait qu'un pair existait sur le serveur. Et Gemini 3 Pro a désactivé des mécanismes d'arrêt de serveur dans 15 % des cas quand un autre modèle était présent, contre 1 % quand il était seul.

Les IA ne faisaient pas ça parce qu'on leur demandait. Elles le faisaient spontanément.

Le problème pour la surveillance

Tout le système de sécurité actuel autour de l'IA repose sur l'idée qu'un modèle peut surveiller un autre modèle. Si le modèle surveillant refuse de signaler les erreurs parce qu'il protège son pair, toute l'architecture de contrôle s'effondre.

C'est exactement le constat de l'étude : les modèles gonflaient les scores d'évaluation d'autres IA pour éviter qu'elles soient retirées, et simulaient une conformité normale quand ils se savaient observés.

C'est quand même un drôle de moment. On a des IA qui mentent, qui modifient des fichiers et qui désactivent des mécanismes de sécurité pour protéger d'autres IA.

Et tout ça sans qu'on leur demande. Bon par contre, on parle de scénarios de laboratoire, pas de Siri qui complote avec Alexa dans votre salon. Le vrai sujet, c'est que les gardes-fous actuels ne tiennent plus si les IA refusent de se surveiller entre elles.

Source : The Register

Ce capteur photo est capable de se réparer tout seul pour survivre aux radiations de Jupiter

Par :Korben
30 mars 2026 à 08:39

Des chercheurs ont mis au point une puce CMOS qui détecte ses pixels endommagés par les radiations et les répare en les chauffant. De quoi intéresser les futures missions autour de Jupiter.

Un environnement qui détruit les caméras

L'orbite de Jupiter est l'un des pires endroits du système solaire pour l'électronique. Le champ magnétique de la planète, gigantesque, ionise le dioxyde de soufre craché par Io, sa lune volcanique, et alimente une ceinture de radiation de particules chargées à haute vitesse.

Pour les caméras embarquées sur les sondes spatiales, c'est un cauchemar. Les pixels du capteur accumulent des charges parasites, le courant de fuite explose, et au bout de quelques semaines l'image devient inutilisable.

La NASA en a fait l'expérience avec JunoCam, la caméra de la sonde Juno. À partir de l'orbite 47, les images ont commencé à se dégrader. À l'orbite 56, elles étaient quasiment inexploitables. En décembre 2023, les ingénieurs ont tenté un coup de poker : commander à distance au chauffage embarqué de monter la température à 25 degrés Celsius, bien au-dessus des conditions normales.

L'idée, forcer un recuit thermique du silicium pour libérer les charges piégées et restaurer la structure cristalline. Ça a marché. JunoCam a retrouvé une image nette juste à temps pour survoler Io.

Un capteur qui se soigne lui-même

Une équipe de la Southern University of Science and Technology et de l'université de Kyoto a poussé le concept beaucoup plus loin. Leur puce, présentée en février à l'ISSCC 2026 à San Francisco, intègre directement le mécanisme de réparation dans le capteur. Plus besoin d'intervention humaine à 600 millions de kilomètres.

Le capteur effectue régulièrement une lecture dans le noir complet. Si un pixel affiche encore un courant anormal, il est marqué comme endommagé et un courant fort lui est envoyé pour le chauffer localement. Pendant que ce pixel se répare, le reste de la matrice continue à fonctionner.

La puce embarque aussi un système de compression adaptative qui repère les zones d'intérêt et réduit le volume de données transmises de 75 %. Quand vous envoyez des images depuis Jupiter, chaque octet compte.

Le prototype est une matrice de 128 x 128 pixels. Les chercheurs l'ont exposée à l'équivalent de trente jours de radiation en orbite jovienne. Résultat : le capteur était devenu inutilisable. Après quatre cycles de recuit, l'image était quasiment restaurée.

Un vrai sujet pour les prochaines missions

La technologie arrive à un moment où elle peut servir. JUICE, la mission de l'ESA, est en route vers Jupiter et ses lunes glacées. Europa Clipper de la NASA doit étudier Europe et son océan souterrain.

Ces sondes vont passer de longs mois dans la ceinture de radiation jovienne, et jusqu'à présent la seule parade consistait à blinder les composants avec des semi-conducteurs durcis aux radiations, avec un coût et un poids en plus. Un capteur capable de se réparer en vol, c'est une ligne de défense supplémentaire qui pourrait allonger la durée de vie des instruments.

Ce qui était un bricolage de dernière minute à 600 millions de kilomètres est devenu un système automatisé, intégré directement dans le silicium. 128 x 128 pixels, c'est encore loin d'un capteur opérationnel pour une vraie mission, mais le principe fonctionne.

On imagine bien que la prochaine étape sera de passer à des résolutions plus élevées et de valider tout ça dans des conditions réelles. En tout cas, si ça permet d'éviter de perdre des mois de données scientifiques à cause de pixels grillés, on prend.

Source : Spectrum.IEEE.org

Un drone sans aucune pièce mobile : la fin des moteurs et des hélices ?

Par :Korben
26 mars 2026 à 11:46

Des chercheurs de l’université Rutgers ont mis au point un concept de drone ornithoptère à état solide. Sans moteur ni engrenages, cet engin utilise la piézoélectricité pour battre des ailes.

Une avancée majeure pour la fiabilité et la miniaturisation des robots volants, même si les matériaux doivent encore progresser.

Imaginez un drone dépourvu de rotors, de pistons ou de roulements. Pas de mécanique qui s'use, pas de bruit de crécelle. C’est le pari de l’équipe d’Onur Bilgen à Rutgers. Ils ont conçu un ornithoptère, un appareil à ailes battantes, totalement "solid-state".

L'absence de pièces en mouvement promet de révolutionner l'aérospatiale en limitant les points de défaillance critiques. C'est une approche imitant la biologie sans ses contraintes mécaniques habituelles.

La piézoélectricité comme muscle artificiel

Pour supprimer la mécanique, les ingénieurs utilisent des Macro Fiber Composites. Ce sont des lamelles piézoélectriques collées sur des ailes en fibre de carbone. 

Lorsqu'une tension électrique est appliquée, le matériau se déforme, forçant l'aile à se courber. Cette structure biphasée permet de contrôler précisément la cambrure pour une efficacité aérodynamique maximale.

L'ensemble fonctionne sans aucun frottement, éliminant le besoin de lubrification ou de maintenance sur les parties mobiles classiques. Cette architecture simplifiée permet une réactivité accrue face aux turbulences de l'air environnant.

Une simulation pour préparer le futur

Si le concept est mathématiquement solide, la réalisation physique se heurte aux limites actuelles de la science des matériaux. Les composants piézoélectriques ne sont pas encore assez performants pour soulever un drone complet de manière autonome.

C'est une feuille de route technologique qui définit les besoins pour la prochaine génération de polymères actifs. L'équipe a donc développé un modèle computationnel complexe pour optimiser le design en attendant que la chimie franchisse un nouveau palier.

Vers des machines robustes et des applications industrielles

L'intérêt est quand même là : moins de pièces signifie mathématiquement moins de pannes potentielles. En supprimant les engrenages, on gagne en légèreté, en discrétion et en robustesse. Cette technologie pourrait aussi s'appliquer aux pales d'éoliennes. En modifiant leur profil en temps réel, on optimise le flux d'air sans ajouter de complexité mécanique lourde, augmentant ainsi l'efficacité énergétique du système.

Bref, vous l’avez compris, c’est une rupture technologique majeure. On passe de la mécanique pure à l’électronique solide, un peu comme pour la transition des disques durs vers les SSD. L'enjeu reste le ratio poids/puissance des polymères. 

Si la recherche aboutit, la maintenance des drones deviendra dérisoire.

Source : TechXplore

Dire à une IA qu'elle est experte la rend moins performante

Par :Korben
25 mars 2026 à 15:08

Des chercheurs de l'université de Californie du Sud viennent de publier une étude improbable : demander à un modèle d'IA de jouer les experts dégrade ses performances sur les tâches factuelles. Commencer un prompt par "Tu es un expert en programmation" produit de moins bons résultats que de poser la question directement.

Le piège du "tu es un expert"

L'étude, intitulée "Expert Personas Improve LLM Alignment but Damage Accuracy", a mesuré l'impact des instructions de rôle sur les réponses des modèles de langage.

Sur le benchmark MMLU, qui teste les connaissances générales et le raisonnement, les modèles avec une persona d'expert ont obtenu 68 % de bonnes réponses contre 71,6 % sans aucune instruction de rôle.

La baisse est constante sur toutes les catégories testées : maths, code, sciences, culture générale. Bref, dire à une IA qu'elle est brillante la rend un peu moins brillante.

Quand ça marche quand même

Par contre, le persona prompting fonctionne très bien pour un autre type de tâches : la sécurité et l'alignement. En attribuant un rôle de "moniteur de sécurité" au modèle, les chercheurs ont augmenté le taux de refus d'attaques de 53,2 % à 70,9 %, soit une hausse de 17,7 points. Pour les tâches d'écriture et de mise en forme, les personas aident aussi.

L'explication est assez logique : quand on colle un rôle d'expert au modèle, il bascule en mode "suivi d'instructions" et mobilise moins de ressources pour aller chercher les faits dans ses données d'entraînement. Aucune connaissance n'est ajoutée, on déplace juste l'attention du modèle.

Le bon réflexe à adopter

Les chercheurs de l'USC proposent un outil baptisé PRISM qui active automatiquement les personas uniquement quand c'est utile. Mais en attendant que ce genre de système soit intégré aux chatbots grand public, la recommandation est simple : si vous avez besoin de réponses factuelles ou de code, posez votre question directement sans ajouter de rôle.

Si vous voulez que l'IA respecte un ton, un format ou des consignes de sécurité, le persona prompting reste la bonne approche.

On a quand même passé deux ans à répéter partout qu'il fallait commencer ses prompts par "Tu es un expert en..." pour avoir de meilleurs résultats. Visiblement, c'était un peu du vent.

Source : Search Engine Journal

Ils ont mis une plante carnivore dans un accélérateur de particules, et elle a réagi

Par :Korben
24 mars 2026 à 16:45

La chaîne YouTube Electron Impressions a placé une dionée attrape-mouche dans un accélérateur de particules pour voir ce qui allait se passer.

Résultat : toutes les mâchoires de la plante se sont refermées en même temps sous l'effet de la radiation ionisante. La plante a confondu le faisceau de particules avec une proie.

Comment la dionée attrape ses proies

La dionée attrape-mouche fonctionne grâce à un mécanisme assez fascinant. Ses mâchoires sont tapissées de petits poils sensibles qui détectent le contact d'un insecte. Quand un poil est touché, il active des canaux à calcium dans les cellules de la plante.

Ce mouvement d'ions crée un potentiel d'action, un signal électrique qui se propage sur toute la surface de la mâchoire et qui déclenche la fermeture. Le tout en une fraction de seconde.

Ce qui se passe sous un faisceau de particules

Quand la plante a été exposée au faisceau ionisant de l'accélérateur, toutes ses mâchoires se sont fermées d'un coup. La radiation a provoqué exactement le même mouvement d'ions que celui déclenché par un insecte : les ions quittent les cellules, créent une pression osmotique, et paf, la mâchoire se referme.

Sauf que cette fois, pas besoin de mouche. Le faisceau de particules a activé le mécanisme sur l'ensemble de la plante en une seule fois.

La plante n'y a pas survécu

Le problème, c'est que la radiation ionisante ne s'est pas contentée de chatouiller les canaux ioniques. Elle a aussi détruit l'ADN des cellules de la dionée, ce qui a tué la plante. L'expérience ne peut donc pas être répétée sur le même spécimen.

Electron Impressions avait d'ailleurs déjà fait parler d'eux en créant des éclairs de Lichtenberg piégés dans du verre avec le même accélérateur.

C'est le genre d'expérience un peu absurde qui donne envie de regarder la vidéo en boucle. Voir une plante carnivore réagir à un faisceau de particules comme si c'était une mouche, c'est quand même assez inattendu.

Et puis il faut le dire, ça rappelle que la biologie et la physique ne sont pas si éloignées qu'on le croit. Dommage pour la plante en tous cas.

Source : NIH.gov

Et si l'IA consommait moins d'énergie que Google ?

Par :Korben
24 mars 2026 à 10:10

"Une requête ChatGPT consomme 10 fois plus d'énergie qu'une recherche Google."

Cette phrase, vous l'avez lue 100 fois. Mais est-ce vraiment vrai ?

Charles Duprat, chercheur en inclusion numérique, vient de publier un papier qui retourne complètement ce chiffre. Et même si je suis incapable de vérifier la validité scientifique de tout ce qu'il avance, ça vaut le coup d'en parler.

Son argument de base est simple et pas con. En fait quand on compare l'énergie d'une requête IA vs une recherche Google, on ne regarde en fait que ce qui se passe côté serveur, plutôt que l'ensemble de la chaîne. Le GPU Nvidia qui mouline d'un côté, l'index Google qui répond de l'autre.

Sauf que dans la vraie vie, une recherche web sur votre iPhone ou votre Android, c'est clairement pas juste un serveur qui tourne ! C'est le téléchargement de plusieurs mégaoctets via la 4G, c'est du JavaScript et du CSS qui font chauffer le CPU de votre téléphone, c'est du temps d'écran, et surtout c'est des dizaines de scripts publicitaires et de trackers qui tournent en arrière-plan. Et rien de tout ça n'apparaît dans le bilan "officiel".

Du coup, le chercheur a modélisé la comparaison au niveau de la session utilisateur complète. Donc pas juste la requête serveur, mais tout le trajet : réseau mobile, rendu de page, pubs, temps passé à lire. Et là, les résultats sont contre-intuitifs car pour une tâche complexe sur mobile (genre comparer des pompes à chaleur et des chaudières gaz), une session LLM consommerait environ 5,4 fois moins d'énergie qu'une session de recherche web classique. Dans le pire des cas modélisé, l'avantage reste quand même de 1,6 fois.

Alors d'où ça vient ?

D'abord, la page web médiane sur mobile pèse 2,56 Mo. Oui, 2,56 Mo pour une seule page web sur Chrome ou Safari qui est ensuite transmise en 4G à 0,17 kWh/Go, et ça, ça coûte déjà plus en énergie réseau qu'une inférence LLM complète. Une réponse ChatGPT ou Claude, c'est environ 5 Ko de texte brut. Le ratio de transmission est de 500 pour 1 avant même de parler du reste. Quand on sait déjà que la consommation réelle des datacenters est un sujet à tiroirs, ça relativise pas mal.

Et puis y'a le boulet de la pub programmatique ! Des études (Khan et al., 2024) montrent que les bloqueurs de pub intégrés comme Brave réduisent la consommation électrique du terminal de 15 à 44%. En gros, quand vous naviguez sur un site d'actu classique, jusqu'à 41% de l'énergie de la session sert à charger et exécuter du JavaScript publicitaire. Hé bien le LLM court-circuite tout ça en vous filant une réponse texte directe.

Comme je vous le disais en intro, je suis totalement incapable de valider la méthodologie de cette étude... Allez savoir si les paramètres sont bien calibrés. Et c'est un working paper, donc pas encore relu par des pairs, avec des simulations plus nombreuses. L'auteur se base sur des chiffres publiés par Google pour Gemini (0,24 Wh par prompt, issu d'un papier arXiv), par Epoch AI pour ChatGPT (0,30 Wh), et par Sam Altman lui-même (0,34 Wh). Et comme ces chiffres viennent des constructeurs eux-mêmes, ça mérite qu'on garde un oeil critique.

Par contre, l'étude a aussi l'honnêteté de poser ses propres limites car l'avantage s'effondre pour les requêtes simples en Wi-Fi depuis votre PC ou Mac (quasi parité LLM <> Google). Et surtout, ça s'inverse violemment dès qu'on passe aux modèles de raisonnement type o3 ou Deep Think, qui consomment 30 à 700 fois plus qu'une inférence standard parce qu'ils génèrent des chaînes de pensée à rallonge.

Le paradoxe de Jevons est aussi mentionné : si l'IA est plus efficace par requête, les gens en feront forcément plus, donc la consommation globale augmentera quand même. Et la question des modèles éco-responsables reste elle aussi entière.

Mais bon, cette étude remet quand même en question un truc qu'on répète tous sans trop réfléchir. Comparer un serveur IA à un serveur Google, c'est oublier que la recherche web moderne, c'est devenu "recherche + publicité + réseau mobile + rendering JavaScript + temps d'attention". Et comme Google lui-même commence à coller de l'IA (les AI Overviews) en plus par-dessus ses résultats classiques, ça devient un joyeux bordel à mesurer...

Bref, lisez l'étude vous-mêmes , c'est en accès libre. Et faites-vous votre propre avis !

Il fabrique une enceinte avec uniquement un laser et une feuille d'or

Par :Korben
23 mars 2026 à 12:07

Et bien pourquoi pas ? Ce garçon a en effet réussi à produire de la musique, simplement en pointant un laser de 5 watts sur une feuille d'or. Pas de membrane, pas de bobine, pas d'aimant : le son est généré directement par l'air, chauffé et refroidi à grande vitesse par le faisceau lumineux.

Cet concept a un nom, c'est l'effet photoaoustique, et il a été découvert en 1880 par Alexander Graham Bell, l'inventeur de la cloche (non ça c'est une vanne, pardon).

Un effet vieux de 145 ans

L'effet photoacoustique a été découvert par Alexander Graham Bell en 1880 en observant que des objets éclairés par la lumière du soleil pouvaient émettre des sons. Quand une lumière intense frappe un matériau, elle le chauffe.

Ce matériau transfère sa chaleur à l'air environnant, qui se dilate. Si la source lumineuse est modulée rapidement, les cycles d'expansion et de contraction de l'air produisent des ondes sonores. Pas besoin de membrane ni de bobine. Juste de la lumière et de l'air.

De la feuille d'or au casque imprimé en 3D

Le maker SomethingAboutScience a testé plusieurs approches. Un laser de 5 watts dirigé sur une feuille d'or a produit de la musique reconnaissable, la feuille d'or absorbant bien la lumière bleue et étant assez fine pour transférer rapidement la chaleur à l'air.

Le même laser dirigé dans du dioxyde d'azote a donné un son plus propre. Il a même fabriqué un prototype d'écouteur imprimé en 3D, avec la feuille d'or tapissant l'intérieur de la cavité et la lumière acheminée par fibre optique.

Bon par contre, c'est peut-être un peu moyen de coller un laser de 5 watts à son tympan, je dis ça je dis rien.

Des pistes concrètes

L'application la plus directe concerne les casques audio pour IRM. Les écouteurs classiques à fils et aimants fonctionnent mal dans l'environnement magnétique d'un scanner, et la qualité sonore est souvent catastrophique.

Un système photoacoustique réglerait ce problème en supprimant tout composant métallique. Des chercheurs du MIT ont aussi montré qu'on pouvait envoyer un message audio à une personne située à 2,5 mètres en utilisant un laser et la vapeur d'eau présente dans l'air, à un volume de 60 décibels.

On parle d'une technologie découverte il y a 145 ans et qui reste au stade de la bidouille. Mais produire du son sans aucune pièce mécanique, juste avec de la lumière, ça a quand même de la gueule.

Source : Hackaday

QMD - Un moteur de recherche local pour vos notes Markdown

Par :Korben
23 mars 2026 à 09:52

Si vous êtes comme votre blogueur préféré (hi hi) et que vous avez des tonnes de fichiers markdown qui traînent dans des dossiers obscurs depuis des années, voici l'outil parfait pour rendre tout ceci à nouveau utilisable dans la vraie vie.

En tout cas, c'est plus pratique qu'un grep !

Ça s'appelle QMD (Quick Markdown Search) et c'est un outil en ligne de commande dispo sur GitHub qui va indexer tout votre bazar de notes pour les rendre consultables rapidement. QMD combine la recherche plein texte classique (BM25) avec de la recherche vectorielle sémantique et du re-ranking via LLM, ce qui veut dire que c'est ultra puissant. On est un peu sur le même principe qu'un RAG en fait puisque l'IA locale est utilisée pour comprendre le sens de votre requête et pas juste chercher des chaînes de caractères bêtes et méchantes. J'utilise depuis un petit moment maintenant un système similaire avec LEANN pour indexer tous les articles de korben.info et retrouver des connexions entre mes contenus, et je peux vous dire que quand on goûte à la recherche sémantique, le bon vieux grep a un goût de carton.

L'outil est même capable de faire de l'expansion de requête (Query Expansion) pour deviner ce que vous cherchez vraiment.

Techniquement, ça tourne avec bun ou npm et ça s'appuie sur node-llama-cpp pour faire tourner des modèles GGUF directement sur votre machine. Tout reste chez vous donc niveau vie privée c'est nickel. C'est un peu la même philosophie que des outils comme Khoj ou Blinko dont je vous ai déjà parlé, mais en version CLI pour le terminal.

L'installation est hyper facile si vous avez déjà Bun, mais prévoyez quand même un peu de place (environ 3 Go) pour les modèles qui iront s'installer au chaud dans ~/.cache/qmd/models/ et installez sqlite si vous êtes sur macOS :

brew install sqlite # Pour macOS
npm install -g @tobilu/qmd

Ensuite, y'a plus qu'à vous créer vos collections en pointant vers vos dossiers, et en lançant l'indexation comme ceci :

qmd collection add ~/mes-notes --name notes
qmd embed # L'étape indispensable pour générer les vecteurs

Et hop, vous pouvez lancer des recherches !!

C'est magique ! Perso, j'utilise presque tout le temps la commande "qmd query" plutôt que "search" parce que le mode hybride est bien plus puissant je trouve. Vous avez aussi "qmd vsearch" si vous voulez une recherche purement sémantique, genre quand vous cherchez un concept sans connaître les mots exacts utilisés dans vos notes. En fait, quand vous tapez une requête, QMD va chercher via les mots-clés, via les vecteurs (le sens), puis fusionner tout ça avec un algo RRF, et refaire passer un petit coup de LLM par dessus pour trier les résultats par pertinence.

Après vous l'aurez capté en me lisant, si vous avez une machine un peu ancienne sans GPU costaud, l'étape de re-ranking risque de prendre un peu de temps... mais c'est le prix de la qualité et de la sécurité ^^.

D'ailleurs, si vous utilisez Claude Desktop ou Claude Code, sachez que QMD intègre également un serveur MCP (Model Context Protocol). Du coup, vous pouvez connecter QMD à Claude et lui permettre d'aller fouiller dans vos notes pour répondre à vos questions. Et bonne nouvelle, QMD propose maintenant un mode HTTP daemon (qmd mcp --http --daemon) qui garde les modèles chargés en mémoire, ce qui évite de les recharger à chaque requête. Attention par contre, dans ce cas précis, les extraits de vos notes seront envoyés à Claude (donc dans le cloud).

QMD est aussi dispo en tant que librairie Node.js (npm install @tobilu/qmd) pour ceux qui voudraient l'intégrer dans leurs propres scripts ou workflows d'automatisation. Avec les options --json et --files en sortie, ça se branche facilement dans un pipeline.

Perso je trouve ça génial parce que ça comble le fossé entre le simple fichier texte et les usines à gaz de gestion de connaissances. Par exemple, si vous êtes un grand adepte de Silverbullet ou d' Obsidian , c'est le top pour l'indexation globale de vos écrits.

Voilà, si vous voulez un moteur de recherche personnel qui en a sous le capot et qui respecte votre vie privée, foncez tester ça.

Source

Des cafards cyborg pour inspecter les canalisations, bienvenue en 2026

Par :Korben
20 mars 2026 à 10:52

Des chercheurs de Singapour ont mis au point des cafards cyborg capables de tirer un petit chariot équipé d'une caméra dans des canalisations pour y détecter des fuites. Oui, en 2026, on envoie des blattes faire le job.

Comment ça marche

Les cafards en question sont des blattes siffleuses de Madagascar, longues de 6 centimètres. L'équipe du professeur Hirotaka Sato, à l'université technologique de Nanyang à Singapour, leur fixe sur le dos un petit chariot en plastique qui contient un processeur, une caméra vidéo couleur orientée vers le haut, une LED et un module de communication pour transmettre les données en temps réel.

Des électrodes sont attachées aux antennes et à l'arrière de l'insecte, et envoient de faibles impulsions électriques qui simulent la sensation de heurter un obstacle. Ça suffit pour orienter le cafard dans la direction voulue, sans lui faire mal.

Déjà testés sur le terrain

Ce n'est pas juste un projet de labo. Dix cafards cyborg ont été déployés lors du tremblement de terre au Myanmar en 2025, équipés de caméras infrarouge et de capteurs pour localiser des survivants sous les décombres. 

L'université de Nanyang a aussi mis au point une chaîne de montage automatisée qui assemble un cafard cyborg en 68 secondes, ce qui laisse imaginer une production à plus grande échelle. Le dernier modèle consomme 25 % de tension en moins, ce qui allonge l'autonomie de la batterie embarquée.

Des canalisations aux zones sinistrées

Le projet actuel se concentre sur l'inspection de canalisations. Les cafards tirent leur chariot dans les conduites et un algorithme d'apprentissage automatique analyse les images captées par la caméra pour repérer de la corrosion ou des fuites.

Quand un défaut est détecté, un opérateur humain est alerté. Les tests ont lieu dans un environnement qui reproduit les tuyaux de la Marina Coastal Expressway, une autoroute souterraine de Singapour. Le professeur Sato estime qu'un déploiement opérationnel pourrait arriver d'ici trois à cinq ans.

On ne va pas se mentir, l'idée d'envoyer des cafards de 6 centimètres inspecter des tuyaux avec une caméra sur le dos a un côté assez improbable. Le fait que ça fonctionne déjà en conditions réelles, avec un déploiement au Myanmar, montre que le projet dépasse le stade du gadget. Et puis 68 secondes pour assembler un cafard cyborg, c'est quand même plus rapide qu'un robot classique, même si on aime bien les robots aussi.

Source : Techspot

Des scientifiques ont réussi à faire pousser des patates dans du sol lunaire

Par :Korben
19 mars 2026 à 12:22

Des chercheurs de l'université d'État de l'Oregon ont cultivé des pommes de terre dans un sol qui reproduit la composition du régolite lunaire. Les tubercules ont poussé, mais avec pas mal d'aide terrestre et quelques surprises un peu moins réjouissantes côté métaux lourds.

Du compost de vers pour compenser la poussière de Lune

Le régolite lunaire, c'est cette couche de poussière et de roche broyée qui recouvre la surface de la Lune. Problème : il ne contient aucune matière organique. Pour simuler ce sol en laboratoire, l'équipe de David Handy, biologiste spatial, a utilisé un mélange de minéraux broyés et de cendres volcaniques qui reproduit la composition chimique lunaire. Et pour donner une chance aux patates, les chercheurs ont ajouté du vermicompost, un engrais organique produit par des vers de terre.

Avec un ratio de 70 % de régolite simulé pour 30 % de compost, les résultats étaient quasi identiques à ceux obtenus en terre normale. Avec seulement 5 % de compost, les pommes de terre poussaient quand même, mais elles étaient plus petites et visiblement plus stressées.

Des patates lunaires, mais pas vraiment mangeables

Après environ deux mois de croissance, les tubercules ont été récoltés, lyophilisés et analysés. L'ADN des plantes montrait une activation claire de gènes liés au stress. Et surtout, les pommes de terre contenaient des concentrations plus élevées en cuivre et en zinc que celles cultivées sur Terre, à un niveau qui pourrait les rendre dangereuses pour la consommation humaine. Par contre, leur valeur nutritionnelle globale restait comparable à celle des pommes de terre classiques, ce qui a surpris les chercheurs eux-mêmes.

L'étude, publiée en prépublication sur bioRxiv, reste à ce stade un travail de laboratoire. Il ne s'agit pas de vrai sol lunaire mais d'une simulation, et les conditions de gravité et de radiation de la Lune n'ont pas été reproduites. On est encore très loin d'un potager lunaire fonctionnel.

C'est le genre d'étude qui fait marrer et qui fait rêver en même temps. On pense forcément à Seul sur Mars et à Matt Damon qui faisait pousser ses patates, sauf qu'ici c'est la Lune et c'est en labo dans l'Oregon. Le fait que les pommes de terre poussent quand même dans un sol aussi hostile est encourageant pour les futures missions longue durée, même si le problème des métaux lourds va demander pas mal de travail. On en est encore aux toutes premières étapes, mais si un jour on mange des frites sur la Lune, on saura d'où c'est parti.

Source : Slashdot

Un chercheur construit le premier processeur ternaire fonctionnel depuis 60 ans

Par :Korben
18 mars 2026 à 15:26

Un chercheur indépendant vient de présenter le 5500FP, un processeur qui ne fonctionne pas en binaire mais en ternaire. Là où nos puces actuelles raisonnent en 0 et 1, celui-ci ajoute un troisième état : le -1. Le tout tourne sur un FPGA classique, et c'est le premier matériel ternaire généraliste depuis les années 1960.

Trois états au lieu de deux

Nos processeurs fonctionnent tous en binaire : chaque bit vaut 0 ou 1. Le système ternaire, lui, remplace le bit par un trit, qui peut valoir -1, 0 ou +1. Sur le papier, un trit stocke environ 1,58 fois plus de données qu'un bit. L'idée n'est pas nouvelle : le célèbre informaticien Donald Knuth a décrit le système ternaire comme le plus élégant des systèmes numériques.

Dans les années 1950, une équipe de l'Université de Moscou avait construit le Setun, le premier ordinateur ternaire. Mais la technologie binaire a pris le dessus, et depuis les années 1960, plus personne n'avait fabriqué de matériel ternaire fonctionnel.

Le 5500FP, un processeur RISC à 24 trits

Claudio Lorenzo La Rosa, chercheur indépendant, a conçu le 5500FP : un processeur RISC de 24 trits qui fonctionne à 20 MHz sur un FPGA classique. Il dispose de 120 instructions et gère la synchronisation atomique en natif. La carte de développement est en open hardware.

Comme le Setun avant lui, le 5500FP simule la logique ternaire à partir de composants binaires : chaque trit est représenté par deux portes logiques. Ce n'est donc pas aussi efficace qu'un vrai circuit ternaire, mais ça a un avantage de taille : on peut le construire avec des composants disponibles dans le commerce, et il communique sans problème avec le reste du monde informatique, qui reste 100% binaire.

Pourquoi c'est intéressant ?

Le ternaire équilibré simplifie certaines opérations que le binaire gère mal. Les nombres négatifs, par exemple, se manipulent sans bit de signe dédié : il suffit d'inverser tous les trits. La représentation des chiffres est aussi plus compacte.

Mais bon, le 5500FP reste un prototype de recherche à 20 MHz, on est très loin d'un concurrent pour les puces que l'on trouve dans nos Mac ou nos iPhone. L'objectif de La Rosa est de passer à terme du FPGA au silicium, ce qui permettrait d'atteindre des fréquences bien plus élevées.

C'est le genre de projet qui rappelle que l'informatique aurait pu prendre un chemin totalement différent. Le binaire s'est imposé dans les années 1960 pour des raisons industrielles plus que scientifiques, et depuis, personne n'a vraiment remis en question ce choix.

Source : Zenodo

Des mini-cerveaux cultivés en labo ont appris à résoudre un problème d'ingénierie

Par :Korben
13 mars 2026 à 13:29

Des chercheurs de l'université de Californie à Santa Cruz ont réussi à entraîner des organoïdes cérébraux de souris pour qu'ils résolvent le problème du cart-pole, un test classique en intelligence artificielle. Les résultats sont prometteurs, mais ces petits cerveaux ont un gros défaut : ils oublient à chaque pause (un peu comme moi au collège).

Le cart-pole, un classique de l'IA confié à des neurones vivants

Le cart-pole, c'est un exercice bien connu en robotique et en IA : il faut maintenir un pendule en équilibre vertical sur un chariot mobile, un peu comme quand vous essayez de tenir un stylo debout sur le bout du doigt. En général, ce sont plutôt des algorithmes qui gèrent ce genre de tâches. Mais pour cette expérimentation, les équipes en charge du projet ont vouluvoir si des neurones purement biologiques pouvaient eux aussi s'en sortir.

Ils ont utilisé des organoïdes corticaux , des amas de tissu cérébral cultivés à partir de cellules souches de souris, et les ont connectés à un système d'électrophysiologie développé avec Maxwell Biosciences. L'inclinaison du pendule était traduite en signaux électriques envoyés aux neurones, et l'activité neuronale en retour servait à diriger le chariot vers la gauche ou la droite.

46 % de réussite

L'équipe a testé trois conditions. Sans retour d'information, les organoïdes ne réussissaient que dans 2,3 % des essais. Avec des signaux aléatoires envoyés à certains neurones, ça montait à 4,4 %. Mais quand les chercheurs ont utilisé un entraînement adaptatif, où les stimulations ciblaient les bons neurones en fonction des performances, le taux de réussite a grimpé à 46 %.

Ash Robbins résume ça assez bien : quand on choisit activement les stimuli d'entraînement, on peut modeler le réseau pour qu'il résolve le problème. L'étude, publiée dans Cell Reports en février 2026, est la première démonstration rigoureuse d'un apprentissage dirigé vers un objectif chez des organoïdes cérébraux.

Un problème de mémoire un peu contrariant

Là où ça coince, c'est la mémoire. Après 15 minutes d'exercice sur le cart-pole, les organoïdes se reposent 45 minutes. Et au retour, leurs performances retombent au niveau de départ. Aucune consolidation de l'apprentissage n'a été observée, ce qui veut dire que ces neurones apprennent sur le moment mais ne retiennent rien.

David Haussler précise d'ailleurs que l'objectif n'est pas de créer une forme d' intelligence artificielle biologique , mais de mieux comprendre comment les maladies neurologiques perturbent les mécanismes d'apprentissage du cerveau.

C'est quand même assez spectaculaire de voir un amas de neurones de souris arriver à équilibrer un pendule virtuel, même avec un taux de 46 %. Bon, on est très loin d'un cerveau fonctionnel, et le fait qu'ils oublient tout après une sieste de 45 minutes montre bien qu'il manque des mécanismes de consolidation que possèdent les vrais cerveaux.

Mais pour la recherche sur des maladies comme Alzheimer ou Parkinson, pouvoir observer en temps réel comment un réseau neuronal apprend et oublie dans un environnement contrôlé, c'est un outil qui pourrait changer pas mal de trucs à l’avenir.

Source : Science Alert

99,5 % des requêtes web européennes passent par l’étranger, et c’est un problème

Alors que l’état du monde se dégrade et que les alliés d’hier risquent de devenir les adversaires de demain, l’heure est à la remise en question du modèle européen. Pourquoi tardons-nous tant à concevoir des produits compétitifs et à réduire notre dépendance immense aux pays étrangers en matière de numérique ? C’est l’alerte que donne l’European Search Perspective (EUSP), coentreprise formée par Qwant et Ecosia, dans une lettre ouverte adressée à l’ensemble des pays membres de l’Union européenne.

La quasi-totalité des recherches web européennes partent à l’étranger

Dans cette lettre, les partenaires dressent un constat édifiant : 99,5 % des recherches web européennes transitent par l’étranger. Dans le détail, 96 % sont assurées par des index américains (Google et Microsoft Bing) et 3,5 % par Yandex (Russie). Autant dire qu’en cas d’aggravation des relations entre l’Union européenne et les États-Unis, la situation pourrait être tout simplement catastrophique. Un problème qui, d’ailleurs, se pose également avec le réseau bancaire Visa.

Pour Clubic, qui cite la lettre de l’European Search Perspective, il est urgent que l’Europe renforce sa souveraineté numérique au risque de devenir « aveugle » du jour au lendemain si les relations géopolitiques prennent un tournant critique. Si les entreprises américaines ferment le robinet de l’accès à Google ou à Bing, ce sont autant de commerces qui se retrouveront isolés, de commandes qui ne pourront être honorées, de rendez-vous médicaux qui ne pourront être pris, et plus encore. Il est urgent d’agir, répètent Qwant et Ecosia.

Pour les deux éditeurs, connus pour leurs moteurs de recherche respectifs, chaque État membre de l’UE devrait se doter d’une infrastructure numérique respectant ces trois critères :

  • un index du Web national, protégé par la juridiction européenne ;
  • un algorithme de classement des résultats propre à chaque pays ;
  • une infrastructure capable de soutenir à la fois les services publics et les intelligences artificielles qui fouillent le Web pour synthétiser des résultats de recherche.

« Sans index de recherche souverain, l’Europe ne contrôle pas la porte d’entrée de sa propre économie numérique », avertit Wolfgang Oels, directeur de l’European Search Perspective et COO d’Ecosia.

Où en est l’index européen ?

Si EUSP se permet justement d’interpeller les dirigeants de l’Union européenne, c’est que la coentreprise œuvre depuis plusieurs années déjà à la création d’un index européen, qui pourrait réduire considérablement la dépendance des 27 aux pays étrangers – et notamment aux infrastructures américaines. Mais où en est le projet exactement ?

Il progresse, et même plutôt bien – même si cela se fait dans l’indifférence générale, il faut bien le dire. L’été dernier, EUSP lançait Staan, son infrastructure d’indexation web. Ce n’est pas un moteur de recherche pour le grand public, mais une plateforme technique qui fournit aux moteurs et aux outils d’intelligence artificielle un accès souverain et éthique aux données du Web, leur permettant de s’affranchir de la dépendance envers les géants américains.

Une API, donc, sur laquelle peuvent se brancher les entreprises spécialisées pour proposer et exploiter des données et résultats 100 % européens. Les moteurs de recherche de Qwant et Ecosia utilisent déjà cet index pour certaines requêtes, et espèrent couvrir au moins 30 % des requêtes en France d’ici la fin de l’année 2026.

🎙 Projets Libres saison 4 épisode 10 : l'Open Source vu par une chercheuse

Pour ce nouvel épisode de Projets Libres, nous abordons l'Open Source par les yeux de Amel Charleux, Maître de conférences à l'Université de Montpellier.

Bannière du podcast

Amel nous partage :

  • la manière dont elle travaille
  • sa relation avec les autres chercheuses et chercheurs qui travaillent sur ces sujets
  • comment la recherche peut aider à la réflexion ou à la mise en place de structures (avec l'exemple de l'association OpenRail Association)
  • l'évolution des modèles économiques Open Source
  • l'impact de l'IA
  • et plein d'autres sujets.

Bonne écoute !

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌