Vue normale

Reçu avant avant-hier

Meta et Google condamnés aux États-Unis pour le caractère addictif de leurs algorithmes

Instagram et YouTube sont des drogues dures. C’est en substance la conclusion que tire la justice californienne du procès intenté par une jeune utilisatrice en détresse, accusant Meta et Google d’avoir conçu leurs applications pour retenir les internautes captifs et captives de leurs algorithmes. Les deux entreprises repartent avec une petite tape sur les doigts (6 millions de dollars de dommages à reverser à la plaignante – autant dire la monnaie du pain pour ces mastodontes), mais le procès crée un précédent historique pour la responsabilité des réseaux sociaux en matière de santé mentale.

L’addiction dès le plus jeune âge

D’après Kaley G.M., qui attaquait donc les éditeurs d’Instagram et de YouTube en justice en Californie, ces réseaux ont activement aggravé son état dépressif, ses pensées suicidaires et ses troubles de l’apparence, rapporte Le Monde. La jeune femme dit avoir développé une addiction à YouTube dès l’âge de 6 ans, et à Instagram à 9 ans, après s’y être inscrite en cachette depuis le smartphone de sa mère.

« Chaque fois que j’essayais de me fixer des limites, cela ne fonctionnait pas, et je n’arrivais tout simplement pas à décrocher, raconte Kaley G.M. au tribunal. Je ressentais le besoin d’y être en permanence et, si je n’y étais pas, j’avais le sentiment de passer à côté de quelque chose. »

Une fragilité mentale sur laquelle les avocats de Meta et Google ont évidemment tenté de jouer, sans succès. Les juges ont été réceptifs à l’histoire de la plaignante, qui se déroule dans un contexte de défiance de plus en plus exacerbée envers les plateformes sociales, accusées par de nombreux groupes partout dans le monde d’être conçues de façon à créer des mécanismes d’addiction chez les internautes.

Si Meta et Google ont la ferme intention de faire appel du verdict, Joseph VanZandt, l’un des avocats de la jeune femme, se félicite de l’issue du procès. « C’est la première fois dans l’histoire qu’un jury entend les témoignages de dirigeants et prend connaissance de documents internes qui, selon nous, prouvent que ces entreprises ont privilégié les profits au détriment des enfants », a-t-il déclaré. « La santé mentale des adolescents est profondément complexe et ne peut être imputée à une seule application », réagit pour sa part un porte-parole de Meta. Pour son homologue de Google, « cette affaire témoigne d’une méconnaissance de YouTube, qui est une plateforme de streaming conçue de manière responsable, et non un réseau social ».

Les revers se multiplient pour les géants du Web

Quelle que soit l’issue de l’appel, une digue a définitivement sauté, et les internautes prennent peu à peu conscience du caractère profondément addictif des réseaux sociaux – surtout chez les plus jeunes.

Si Meta et Google ont tenté de prouver que leurs plateformes étaient, au contraire, de formidables outils pour que les personnes isolées se connectent au monde, la justice a décidé de prêter une oreille plus attentive à l’histoire de Kaley G.M., accordant de fait encore plus de crédit à un autre revers subi une semaine plus tôt par Meta au Nouveau-Mexique. L’entreprise de Mark Zuckerberg vient en effet d’être condamnée à 375 millions de dollars de dommages et intérêts pour avoir délibérément mis en danger les enfants en les exposant à des contenus dangereux, voire à des prédateurs sexuels.

Ce procès, comparé par la presse spécialisée à celui des cigarettiers dans les années 1990, condamnés pour avoir délibérément masqué les effets nocifs de leurs produits sur la santé des consommateurs, pourrait ouvrir la voie à de nombreux autres, partout dans le pays et dans le monde. « C’est le canari dans la mine de charbon. La situation rappelle celle de l’industrie du tabac, marquant le point de départ vers des milliers de procès similaires », explique David McCuan, professeur de sciences politiques à l’université de Sonoma, cité par Le Monde.

Meta et Google condamnés aux États-Unis pour le caractère addictif de leurs algorithmes

27 mars 2026 à 11:00

Instagram et YouTube sont des drogues dures. C’est en substance la conclusion que tire la justice californienne du procès intenté par une jeune utilisatrice en détresse, accusant Meta et Google d’avoir conçu leurs applications pour retenir les internautes captifs et captives de leurs algorithmes. Les deux entreprises repartent avec une petite tape sur les doigts (6 millions de dollars de dommages à reverser à la plaignante – autant dire la monnaie du pain pour ces mastodontes), mais le procès crée un précédent historique pour la responsabilité des réseaux sociaux en matière de santé mentale.

L’addiction dès le plus jeune âge

D’après Kaley G.M., qui attaquait donc les éditeurs d’Instagram et de YouTube en justice en Californie, ces réseaux ont activement aggravé son état dépressif, ses pensées suicidaires et ses troubles de l’apparence, rapporte Le Monde. La jeune femme dit avoir développé une addiction à YouTube dès l’âge de 6 ans, et à Instagram à 9 ans, après s’y être inscrite en cachette depuis le smartphone de sa mère.

« Chaque fois que j’essayais de me fixer des limites, cela ne fonctionnait pas, et je n’arrivais tout simplement pas à décrocher, raconte Kaley G.M. au tribunal. Je ressentais le besoin d’y être en permanence et, si je n’y étais pas, j’avais le sentiment de passer à côté de quelque chose. »

Une fragilité mentale sur laquelle les avocats de Meta et Google ont évidemment tenté de jouer, sans succès. Les juges ont été réceptifs à l’histoire de la plaignante, qui se déroule dans un contexte de défiance de plus en plus exacerbée envers les plateformes sociales, accusées par de nombreux groupes partout dans le monde d’être conçues de façon à créer des mécanismes d’addiction chez les internautes.

Si Meta et Google ont la ferme intention de faire appel du verdict, Joseph VanZandt, l’un des avocats de la jeune femme, se félicite de l’issue du procès. « C’est la première fois dans l’histoire qu’un jury entend les témoignages de dirigeants et prend connaissance de documents internes qui, selon nous, prouvent que ces entreprises ont privilégié les profits au détriment des enfants », a-t-il déclaré. « La santé mentale des adolescents est profondément complexe et ne peut être imputée à une seule application », réagit pour sa part un porte-parole de Meta. Pour son homologue de Google, « cette affaire témoigne d’une méconnaissance de YouTube, qui est une plateforme de streaming conçue de manière responsable, et non un réseau social ».

Les revers se multiplient pour les géants du Web

Quelle que soit l’issue de l’appel, une digue a définitivement sauté, et les internautes prennent peu à peu conscience du caractère profondément addictif des réseaux sociaux – surtout chez les plus jeunes.

Si Meta et Google ont tenté de prouver que leurs plateformes étaient, au contraire, de formidables outils pour que les personnes isolées se connectent au monde, la justice a décidé de prêter une oreille plus attentive à l’histoire de Kaley G.M., accordant de fait encore plus de crédit à un autre revers subi une semaine plus tôt par Meta au Nouveau-Mexique. L’entreprise de Mark Zuckerberg vient en effet d’être condamnée à 375 millions de dollars de dommages et intérêts pour avoir délibérément mis en danger les enfants en les exposant à des contenus dangereux, voire à des prédateurs sexuels.

Ce procès, comparé par la presse spécialisée à celui des cigarettiers dans les années 1990, condamnés pour avoir délibérément masqué les effets nocifs de leurs produits sur la santé des consommateurs, pourrait ouvrir la voie à de nombreux autres, partout dans le pays et dans le monde. « C’est le canari dans la mine de charbon. La situation rappelle celle de l’industrie du tabac, marquant le point de départ vers des milliers de procès similaires », explique David McCuan, professeur de sciences politiques à l’université de Sonoma, cité par Le Monde.

Wikipedia bannit le texte généré par intelligence artificielle

Alors que l’intelligence artificielle facilite énormément la création de faux, et que le « Grokipedia » d’Elon Musk propose une certaine forme de révisionnisme alimenté par l’IA, Wikipedia prend une mesure forte pour garantir la pertinence et la qualité des pages qu’il met en ligne. Si les processus de vérification sont déjà rigoureux, l’émergence des grands modèles de langage (LLM) complexifie considérablement la tâche des modérateur·rices de l’encyclopédie, qui mettent aujourd’hui le holà.

La version anglophone de Wikipedia ne veut plus d’IA

C’est désormais acté : les auteur·rices de pages Wikipedia ne sont plus autorisé·es à utiliser des LLM pour générer des pages ou en réécrire le contenu. L’administrateur·rice Chaotic Enby explique dans un post que cette mesure arrive au terme d’âpres débats au sein de la communauté qui, comme partout, est partagée sur l’utilisation que l’on peut faire des outils d’intelligence artificielle.

« Les précédentes tentatives pour mettre en place une règle commune et mondiale sur les LLM n’ont pas abouti, comme c’est souvent le cas quand on s’attaque à des chantiers aussi énormes, raconte Chaotic Enby. Même ceux qui étaient plutôt d’accord avec le projet ont fini par tiquer sur des points précis, trouvant ça soit trop flou, soit trop pointu. Au final, tout le monde s’accorde sur le fait qu’il faut que ça change, mais personne ne s’entend sur la manière de s’y prendre. »

Un accord a donc finalement été trouvé, notamment grâce à l’introduction de deux exceptions à l’utilisation de l’IA : les éditeurs et éditrices sont autorisé·es à s’aider d’un chatbot pour proposer des améliorations de leur style d’écriture, sans que le contenu soit altéré. En clair, l’utilisation d’un LLM comme un relecteur est autorisée. Autre exception, assez connexe : l’utilisation de l’IA est autorisée dans le cadre d’une traduction d’un long article. Cependant, les éditeur·rices doivent être suffisamment à l’aise dans la langue cible pour pouvoir relire le résultat et opérer des corrections. L’idée est de gagner du temps, pas de déléguer la tâche qui incombe à l’éditeur.

Des mesures en réalité difficilement applicables

Si l’on peut se réjouir que la communauté qui fait vivre une part considérable du savoir commun en ligne se dresse contre les dangers potentiels de l’intelligence artificielle, il faut considérer plusieurs choses. La première est que cette décision ne concerne, pour l’heure, que la version anglaise de Wikipedia (en.wikipedia.org). Chaque instance de l’encyclopédie en ligne dispose de son propre jeu de règles, et l’équipe d’éditeurs français pourrait tout à fait décider, au contraire, de plonger les deux pieds devant dans l’IA (peu probable).

La seconde limite est évidente : s’assurer qu’un texte n’a pas été rédigé intégralement par l’intelligence artificielle est une gageure. A fortiori dans le cas d’articles aussi impersonnels et académiques que ceux des pages Wikipedia. Le site a d’ailleurs mis en ligne un guide, censé aider les éditeur·rices à repérer du texte généré par IA, mais reconnaît d’emblée ses limites : « Certains éditeurs ont un style d’écriture qui peut ressembler à celui des LLM. »

Reste que, comme partout, le simple fait d’interdire formellement une pratique devrait déjà décourager une partie des éventuels faussaires. Au moins, les choses sont clarifiées du côté de Wikipedia, et les contributeurs et contributrices peuvent désormais se reposer sur cette règle absolue pour couper court à tout débat avec quelqu’un qui refuserait de ne plus utiliser l’IA pour ses articles.

Wikipedia bannit le texte généré par intelligence artificielle

26 mars 2026 à 13:50

Alors que l’intelligence artificielle facilite énormément la création de faux, et que le « Grokipedia » d’Elon Musk propose une certaine forme de révisionnisme alimenté par l’IA, Wikipedia prend une mesure forte pour garantir la pertinence et la qualité des pages qu’il met en ligne. Si les processus de vérification sont déjà rigoureux, l’émergence des grands modèles de langage (LLM) complexifie considérablement la tâche des modérateur·rices de l’encyclopédie, qui mettent aujourd’hui le holà.

La version anglophone de Wikipedia ne veut plus d’IA

C’est désormais acté : les auteur·rices de pages Wikipedia ne sont plus autorisé·es à utiliser des LLM pour générer des pages ou en réécrire le contenu. L’administrateur·rice Chaotic Enby explique dans un post que cette mesure arrive au terme d’âpres débats au sein de la communauté qui, comme partout, est partagée sur l’utilisation que l’on peut faire des outils d’intelligence artificielle.

« Les précédentes tentatives pour mettre en place une règle commune et mondiale sur les LLM n’ont pas abouti, comme c’est souvent le cas quand on s’attaque à des chantiers aussi énormes, raconte Chaotic Enby. Même ceux qui étaient plutôt d’accord avec le projet ont fini par tiquer sur des points précis, trouvant ça soit trop flou, soit trop pointu. Au final, tout le monde s’accorde sur le fait qu’il faut que ça change, mais personne ne s’entend sur la manière de s’y prendre. »

Un accord a donc finalement été trouvé, notamment grâce à l’introduction de deux exceptions à l’utilisation de l’IA : les éditeurs et éditrices sont autorisé·es à s’aider d’un chatbot pour proposer des améliorations de leur style d’écriture, sans que le contenu soit altéré. En clair, l’utilisation d’un LLM comme un relecteur est autorisée. Autre exception, assez connexe : l’utilisation de l’IA est autorisée dans le cadre d’une traduction d’un long article. Cependant, les éditeur·rices doivent être suffisamment à l’aise dans la langue cible pour pouvoir relire le résultat et opérer des corrections. L’idée est de gagner du temps, pas de déléguer la tâche qui incombe à l’éditeur.

Des mesures en réalité difficilement applicables

Si l’on peut se réjouir que la communauté qui fait vivre une part considérable du savoir commun en ligne se dresse contre les dangers potentiels de l’intelligence artificielle, il faut considérer plusieurs choses. La première est que cette décision ne concerne, pour l’heure, que la version anglaise de Wikipedia (en.wikipedia.org). Chaque instance de l’encyclopédie en ligne dispose de son propre jeu de règles, et l’équipe d’éditeurs français pourrait tout à fait décider, au contraire, de plonger les deux pieds devant dans l’IA (peu probable).

La seconde limite est évidente : s’assurer qu’un texte n’a pas été rédigé intégralement par l’intelligence artificielle est une gageure. A fortiori dans le cas d’articles aussi impersonnels et académiques que ceux des pages Wikipedia. Le site a d’ailleurs mis en ligne un guide, censé aider les éditeur·rices à repérer du texte généré par IA, mais reconnaît d’emblée ses limites : « Certains éditeurs ont un style d’écriture qui peut ressembler à celui des LLM. »

Reste que, comme partout, le simple fait d’interdire formellement une pratique devrait déjà décourager une partie des éventuels faussaires. Au moins, les choses sont clarifiées du côté de Wikipedia, et les contributeurs et contributrices peuvent désormais se reposer sur cette règle absolue pour couper court à tout débat avec quelqu’un qui refuserait de ne plus utiliser l’IA pour ses articles.

99,5 % des requêtes web européennes passent par l’étranger, et c’est un problème

Alors que l’état du monde se dégrade et que les alliés d’hier risquent de devenir les adversaires de demain, l’heure est à la remise en question du modèle européen. Pourquoi tardons-nous tant à concevoir des produits compétitifs et à réduire notre dépendance immense aux pays étrangers en matière de numérique ? C’est l’alerte que donne l’European Search Perspective (EUSP), coentreprise formée par Qwant et Ecosia, dans une lettre ouverte adressée à l’ensemble des pays membres de l’Union européenne.

La quasi-totalité des recherches web européennes partent à l’étranger

Dans cette lettre, les partenaires dressent un constat édifiant : 99,5 % des recherches web européennes transitent par l’étranger. Dans le détail, 96 % sont assurées par des index américains (Google et Microsoft Bing) et 3,5 % par Yandex (Russie). Autant dire qu’en cas d’aggravation des relations entre l’Union européenne et les États-Unis, la situation pourrait être tout simplement catastrophique. Un problème qui, d’ailleurs, se pose également avec le réseau bancaire Visa.

Pour Clubic, qui cite la lettre de l’European Search Perspective, il est urgent que l’Europe renforce sa souveraineté numérique au risque de devenir « aveugle » du jour au lendemain si les relations géopolitiques prennent un tournant critique. Si les entreprises américaines ferment le robinet de l’accès à Google ou à Bing, ce sont autant de commerces qui se retrouveront isolés, de commandes qui ne pourront être honorées, de rendez-vous médicaux qui ne pourront être pris, et plus encore. Il est urgent d’agir, répètent Qwant et Ecosia.

Pour les deux éditeurs, connus pour leurs moteurs de recherche respectifs, chaque État membre de l’UE devrait se doter d’une infrastructure numérique respectant ces trois critères :

  • un index du Web national, protégé par la juridiction européenne ;
  • un algorithme de classement des résultats propre à chaque pays ;
  • une infrastructure capable de soutenir à la fois les services publics et les intelligences artificielles qui fouillent le Web pour synthétiser des résultats de recherche.

« Sans index de recherche souverain, l’Europe ne contrôle pas la porte d’entrée de sa propre économie numérique », avertit Wolfgang Oels, directeur de l’European Search Perspective et COO d’Ecosia.

Où en est l’index européen ?

Si EUSP se permet justement d’interpeller les dirigeants de l’Union européenne, c’est que la coentreprise œuvre depuis plusieurs années déjà à la création d’un index européen, qui pourrait réduire considérablement la dépendance des 27 aux pays étrangers – et notamment aux infrastructures américaines. Mais où en est le projet exactement ?

Il progresse, et même plutôt bien – même si cela se fait dans l’indifférence générale, il faut bien le dire. L’été dernier, EUSP lançait Staan, son infrastructure d’indexation web. Ce n’est pas un moteur de recherche pour le grand public, mais une plateforme technique qui fournit aux moteurs et aux outils d’intelligence artificielle un accès souverain et éthique aux données du Web, leur permettant de s’affranchir de la dépendance envers les géants américains.

Une API, donc, sur laquelle peuvent se brancher les entreprises spécialisées pour proposer et exploiter des données et résultats 100 % européens. Les moteurs de recherche de Qwant et Ecosia utilisent déjà cet index pour certaines requêtes, et espèrent couvrir au moins 30 % des requêtes en France d’ici la fin de l’année 2026.

Générer 5 secondes de vidéo par IA consomme autant qu’un micro-ondes qui tourne pendant une heure

L’institut technologique du Massachusetts (MIT) publie une étude enrichissante sur la consommation énergétique, et en particulier électrique, de l’utilisation de l’intelligence artificielle. Alors que de nouveaux data centers poussent aux quatre coins du globe et que les politiques publiques, notamment américaines, visent à un débridage total en matière d’adoption de l’IA, ce nouveau constat fait froid dans le dos. On imagine à peine le moral des experts du GIEC.

La consommation de la génération de vidéos dans le viseur

Alors que les moteurs de génération de vidéos par IA (autrement dit : de deepfakes) se perfectionnent et qu’OpenAI se prépare à intégrer son Sora 2 directement à ChatGPT, le MIT alerte sur la consommation folle de ce genre de technologie. On sait déjà que la moindre requête sur un chatbot d’IA consomme une quantité d’eau astronomique. On sait désormais combien d’électricité est dépensée pour chaque interaction avec ChatGPT : entre 114 et 6 706 joules, estime l’institut de recherche.

Si le chiffre n’est pas très parlant, l’exemple utilisé l’est beaucoup plus. Cela représente la différence entre faire tourner un micro-ondes pendant 0,10 seconde et pendant huit secondes. Plus le modèle de langage est perfectionné, plus il consomme d’électricité en raison du nombre de paramètres mobilisés par le chatbot. En d’autres termes : pour consommer moins, mieux vaut privilégier les modèles les moins capables… mais on augmente alors la marge d’erreur.

Plus inquiétant encore : la génération de vidéos fait littéralement exploser les compteurs. Pour créer une vidéo de cinq secondes par IA, le dernier modèle en date d’OpenAI consomme 3,4 millions de joules. L’équivalent d’un micro-ondes qui tourne pendant une heure… et 700 fois plus d’énergie que pour générer une image en haute qualité.

IA et écologie semblent irréconciliables

Pour panacher un peu leurs observations, les chercheurs du MIT ont alors fait un test : poser à un chatbot 15 questions et générer dix images, et trois vidéos de cinq secondes. Bilan des courses ? 2,9 kWh consommés en quelques minutes. Le MIT Technology Review reprend sa comparaison : c’est un micro-ondes qui tourne sans s’arrêter pendant 3h30.

Le rapport ajoute qu’avant l’émergence de l’IA à partir de 2022, la consommation des data centers, bien qu’élevée, était relativement stable et maîtrisée. Depuis que l’intelligence artificielle s’est invitée partout, les centres de données subissent les assauts d’internautes avides d’essayer le dernier modèle à la mode, conduisant à des surcharges importantes et à une consommation qui part en flèche. L’énergie consommée par les data centers aux États-Unis a doublé depuis 2017, et plus de la moitié de l’électricité de ces infrastructures sera intégralement fléchée vers les outils d’IA dès 2028.

Cette situation n’est pas près de s’arranger. Pour pallier le problème, on construit davantage de data centers, qui appauvrissent les sols et assèchent les rivières. La faune et la flore se font déloger et le désastre écologique qui se joue devant nous depuis des décennies s’aggrave encore. Autre conséquence : les promoteurs de l’IA accaparent les stocks de composants informatiques, notamment la mémoire vive (RAM), ce qui mène à une inflation jamais vue et dessine des hausses de prix sensibles pour tous les produits tech dans les prochains mois.

Instagram va alerter les parents d’adolescents se renseignant sur ces sujets sensibles

Alors que les pays du monde entier s’accordent à durcir l’accès des adolescents au Web, Meta déploie une fonctionnalité essentielle, attendue de longue date. Dès cette semaine, mais seulement aux États-Unis, au Royaume-Uni, en Australie et au Canada (d’autres pays suivront dans l’année), la fonction de supervision parentale va s’enrichir de notifications visant à donner l’alerte si des recherches concernant des sujets comme le suicide et l’automutilation sont effectuées par le compte supervisé.

Des notifications pour donner l’alerte

Meta détaille dans son billet de blog le fonctionnement de cette nouvelle fonctionnalité. Lorsqu’elle sera disponible, d’ici la fin de semaine, le compte des parents comme celui des ados recevra une notification expliquant la nouveauté.

Pour le parent, il est inscrit qu’une notification d’alerte leur sera envoyée (par courriel, SMS, WhatsApp ou Instagram) si leur ado consulte, dans un court laps de temps, des « sujets qui pourraient soulever des inquiétudes à propos de leur sécurité ». Encourageant les parents à avoir une discussion avec leur enfant, la notification renvoie également vers des ressources en ligne permettant de les accompagner dans leur démarche.

Du côté des comptes supervisés, même chose. Au prochain lancement de l’application, une notification les avertira que, désormais, leurs recherches sur le suicide ou l’automutilation peuvent mener à l’envoi d’une notification à leurs parents ou tuteurs.

Instagram alerte safety
Parents comme enfants reçoivent une notification les informant de la nouvelle fonctionnalité.

Des faux positifs ne sont pas à exclure

Après l’introduction des comptes pour adolescents, restreignant l’accès à certaines fonctionnalités d’Instagram (comme les messages privés, « DM ») en 2024, cette nouvelle mesure est plus que bienvenue pour les parents inquiets du temps passé par leur progéniture sur le réseau de Meta.

L’entreprise américaine reconnaît d’ailleurs avoir poussé la sensibilité de son outil de détection un peu loin et qu’il existe un risque de faux positifs. « Nous pourrions parfois notifier des parents sans qu’il y ait de réel motif d’inquiétude, indique le billet de blog, mais nous estimons, et les experts sont d’accord, qu’il s’agit d’un bon point de départ. »

Les réseaux sociaux, comme les intelligences artificielles, sont, ces derniers mois, sous le feu des critiques, accusés par certains parents d’encourager les personnes souffrant de troubles mentaux à s’enfoncer toujours plus loin dans leur mal-être à cause de leurs algorithmes très perfectionnés. À Los Angeles, Meta et Google sont d’ailleurs attaqués en justice par une jeune femme reprochant aux entreprises le caractère addictif de leurs applications, visant, selon elle, à rendre les jeunes dépendants.

La tech devient-elle trop intelligente pour être simple ?

27 février 2026 à 11:00

Les interfaces n’ont jamais été aussi épurées. Les écrans d’accueil des smartphones et des ordinateurs sont lisses, les icônes minimalistes, les animations fluides. Tout semble intuitif, presque naturel. Pourtant, derrière cette apparente simplicité se cache une architecture logicielle d’une complexité croissante : paramètres imbriqués, autorisations multiples, synchronisations permanentes, couches d’intelligence artificielle qui analysent, anticipent et ajustent en continu.

En quelques années, nos appareils sont devenus des systèmes adaptatifs. Ils apprennent de nos habitudes, personnalisent nos contenus, réorganisent nos priorités. Cette sophistication invisible devait alléger nos gestes quotidiens. Elle exige en réalité de nouveaux apprentissages : comprendre pourquoi une notification apparaît, la raison de ce réglage qui change seul, l’explication derrière cette suggestion qui, soudain, s’impose. La promesse de simplicité se heurte à une autre réalité : celle d’une technologie toujours plus puissante, mais pas toujours plus lisible.

Trop de fonctions, pas assez de clarté

Le phénomène porte un nom dans la littérature marketing : la « feature fatigue », la fatigue des options. Plus un produit affiche de possibilités, plus il séduit au moment de l’achat. Cependant, à l’usage, l’abondance devient friction. Ce qui rassure ou fait rêver sur la fiche technique complique l’expérience réelle. Bien souvent, l’utilisateur n’exploite qu’une fraction des fonctions, tout en subissant la complexité qu’elles génèrent.

Les smartphones illustrent parfaitement cette dérive. Paramètres de confidentialité à tiroirs, options d’IA générative, automatisations invisibles, notifications intelligentes, gestion multiappareils… Chez Apple comme chez Samsung, les systèmes sont devenus de véritables écosystèmes. L’interface reste sobre. Toutefois, derrière, les réglages s’enfoncent parfois sur cinq ou six niveaux. Trouver une autorisation précise peut nécessiter de longues minutes d’exploration.

L’IA simplifie… en théorie

L’intelligence artificielle devait résoudre ce paradoxe. Moins de menus, plus d’assistance. On ne configure plus, on demande. Des acteurs comme Microsoft avec Copilot ou Google avec ses assistants intégrés promettent une interaction plus naturelle : écrire, rechercher, organiser, tout deviendrait conversationnel.

Pourtant, la complexité ne disparaît pas, elle se déplace. L’utilisateur doit apprendre à formuler des requêtes efficaces, à comprendre les limites du système, à corriger ses erreurs. Une mauvaise interprétation, et le résultat déçoit. La charge cognitive change de forme : moins technique, plus abstraite. Dialoguer avec une IA suppose de saisir sa logique probabiliste, ce qui n’est pas toujours intuitif.

Des interfaces toujours plus chargées

Le téléviseur connecté en est un autre révélateur. Auparavant, on avait un écran et une télécommande. On passait d’une chaîne à l’autre, on gérait le volume… et cela fonctionnait très bien. Aujourd’hui, l’écran d’accueil n’est plus un simple menu : c’est un carrefour algorithmique. Applications, recommandations personnalisées, contenus sponsorisés, profils multiples. Les interfaces d’Amazon (Fire TV), d’Apple TV ou de Google TV multiplient les couches. L’algorithme trie pour nous. Toutefois, le paysage visuel reste dense.

Même évolution sur les ordinateurs : synchronisation cloud permanente, gestion de comptes multiples, autorisations croisées entre services, double authentification à gogo, clés de sécurité en pagaille… Chaque nouvelle fonctionnalité améliore un point précis, tout en ajoutant une strate supplémentaire. L’utilisateur navigue dans un environnement qui ne cesse de s’épaissir.

Son de cloche identique dans les voitures de dernière génération. Des fabricants comme Tesla, sous prétexte d’un intérieur dépouillé, ont enlevé nombre de boutons physiques. Désormais, il faut « slider » d’un affichage à l’autre, naviguer dans les menus pendant que l’on conduit… Des tests comparatifs ont montré que ces modèles à écran tactile nécessitent plus de temps d’attention que trois boutons alignés permettant de gérer la radio ou la température générale. D’ailleurs, l’organisme européen de sécurité Euro NCAP a annoncé vouloir intégrer l’ergonomie des commandes physiques dans ses critères de notation sécurité. Le bouton est toujours à la même place, le geste est mémorisé, on peut le faire sans quitter la route du regard… Avec un écran, on passe d’un geste réflexe à une microdécision (vérification visuelle, validation mentale).

La simplicité, victime collatérale ?

Les spécialistes du Nielsen Norman Group alertent régulièrement sur cette surcharge silencieuse. Un design minimaliste peut masquer une structure labyrinthique. Ce n’est pas parce qu’un écran est épuré qu’il est simple. La profondeur des menus, l’accumulation d’options et la personnalisation extrême complexifient l’entraide et brouillent les repères.

La technologie contemporaine n’est plus seulement un outil. C’est un système adaptatif, en mouvement permanent. Elle apprend, modifie, propose, anticipe. Pourtant, cette intelligence embarquée peut donner le sentiment d’un contrôle diffus. Pourquoi ce contenu apparaît-il ? Pourquoi ce réglage a-t-il changé ? Pourquoi cette fonction s’est-elle activée seule ? À mesure que la tech devient plus intelligente, elle devient aussi un peu moins transparente. La vraie question n’est pas de savoir si l’innovation va trop loin. Elle est de savoir si, dans cette course à l’intelligence, la simplicité reste une priorité – ou si elle est devenue un dommage collatéral.

Nouvelle fuite de données à la CAF : les bénéficiaires du RSA exposés

Presque un an jour pour jour après un piratage de la Caisse d’allocations familiales (CAF), des hackers remettent le couvert. La direction interministérielle du Numérique (Dinum) nous apprend aujourd’hui avoir été victime d’une intrusion frauduleuse dans ses systèmes (qui font le lien entre différents organismes publics), et que des données particulièrement sensibles concernant les bénéficiaires du Revenu de solidarité active (RSA) ont pu être consultées et récupérées par les cybercriminels.

Des numéros de sécurité sociale dans la nature

En France, en 2026, un piratage chasse l’autre. C’est simple, il ne se passe pas une semaine sans qu’une institution ou administration française cède sous les assauts de pirates qui, une fois encore, semblent avoir fait un gros coup.

Le hacker « white hat » (c’est-à-dire aidant les entreprises à améliorer leurs pratiques de cybersécurité) SaxX rapporte la nouvelle sur son compte X. Citant le mail de la Dinum dont nous parlions plus haut, l’expert liste par le menu les données de bénéficiaires du RSA qui ont pu être compromises dans cette fuite constatée en « janvier 2026 », d’après le courriel.

🚨🔴CYBERALERT 🇫🇷FRANCE🔴 | Cyberattaque à la CAF : Les bénéficiaires au RSA exposés dans une fuite de données… ⤵

Aucune institution en France ne sera épargnée…

La DINUM (Direction du Numérique), l'opérateur chargé de la transmission aux conseils départementaux des données… pic.twitter.com/aHX5JuEQs2

— SaxX ¯_(ツ)_/¯ (@_SaxX_) February 25, 2026

Sont concernés :

  • Coordonnées de contact liées à la demande de RSA
  • Numéro d’allocataire
  • Identité du bénéficiaire (Nom et prénoms)
  • Identité du responsable du dossier (Nom et prénoms)
  • Numéro de sécurité sociale
  • Date de dépôt de la demande
  • Date d’ouverture des droits et devoirs
  • Numéro de téléphone
  • Adresse e-mail

Pour l’heure, on ignore combien de bénéficiaires sont concerné·es par ce nouveau piratage. La Dinum indique toutefois qu’il n’aura « aucun impact sur votre droit au RSA ou sur la date du paiement ».

À quoi faut-il s’attendre ?

Vous commencez à connaître la chanson. À chaque nouveau piratage, c’est la même chose. Grâce aux données ainsi récupérées, les pirates accumulent une masse de données conséquentes sur leurs victimes et, en les croisant, ils obtiennent des profils extrêmement précis permettant de mettre sur pied des arnaques. « Attendez-vous à une recrudescence d’arnaques que vont recevoir ces bénéficiaires du RSA », alerte SaxX dans son post.

Malheureusement, le mal est déjà fait, et il n’est pas du fait des bénéficiaires du RSA. L’heure n’est pas à changer de mots de passe, il faut simplement conserver une vigilance accrue concernant d’éventuels courriels qui pourraient vous être adressés et qui vous demanderaient d’effectuer des actions pour obtenir le paiement de vos droits. En cas de doute, n’hésitez pas à contacter par téléphone votre conseiller·e pour avoir confirmation que la CAF est en attente de documents pour procéder à votre paiement.

À la semaine prochaine pour un autre piratage ?

Sous une pluie de critiques, Discord retarde sa fonction de vérification de l’âge des utilisateurs

Alors que la plateforme de discussion en ligne devait commencer à vérifier l’âge de tout le monde au mois de mars prochain, un nouveau billet de blog annonce que le lancement de cette fonctionnalité controversée est repoussé au second semestre de 2026. Un répit bienvenu, duquel Discord profite également pour faire son autocritique.

Pourquoi la vérification d’âge sur Discord a-t-elle fait polémique ?

Il y a quelques jours, la messagerie en ligne, prisée des gamers (mais pas seulement), annonçait sans crier gare qu’elle commencerait à vérifier l’âge de tous ses utilisateurs et de toutes ses utilisatrices. En mars, tous les comptes allaient être automatiquement passés en « mode adolescent », restreignant l’accès à certains salons de discussion et à d’autres fonctionnalités jusqu’à ce que le possesseur du compte se plie à une vérification d’identité. Rapidement critiqué, et sous la menace d’un exode massif de ses utilisateurs vers d’autres plateformes (à quelques jours de son introduction en bourse, par ailleurs), Discord a tenté d’éteindre l’incendie.

La plateforme précisait alors que la majorité des utilisatrices et utilisateurs actuels de Discord n’auraient pas besoin de vérifier leur identité, car elle dispose déjà d’assez d’informations attestant de leur âge (par exemple, si un achat à l’abonnement Nitro a déjà été effectué). Mais impossible pour les nouveaux comptes, ou les comptes récents, d’y couper. Et, c’est là que la situation s’est encore davantage tendue.

Alors que Discord assurait que le processus de vérification d’âge était effectué localement sur l’appareil depuis lequel l’internaute se connecte, il est apparu que la plateforme était partenaire de Persona, une entreprise spécialisée dans la vérification d’identité, financée par Peter Thiel, grand argentier ô combien controversé de la Silicon Valley. L’homme est notamment connu pour être à la tête de Palantir, entreprise de surveillance de masse qui travaille étroitement avec la police de l’immigration américaine (ICE) pour qu’advienne le projet de déportation des étrangers voulu par Donald Trump. Autant dire une entreprise à laquelle on aimerait éviter de fournir nos données biométriques.

Discord change de braquet

Un véritable tollé a éclaté en ligne ces derniers jours, et des campagnes de résiliation massives de l’abonnement Discord Nitro ont été menées par des utilisateurs et utilisatrices refusant de voir leurs données nourrir la banque de données de Persona. Des menaces entendues par la plateforme américaine, qui annonce donc retarder l’implémentation de la vérification d’identité de ses utilisateurs.

Le fondateur de Discord, Stanislav Vishnevskiy, le reconnaît : son entreprise n’a pas fait un assez bon travail pour expliquer la raison qui motive le lancement de cette fonction controversée. Discord annonce ainsi plusieurs étapes claires qui mèneront à l’introduction de la vérification d’âge dans les prochains mois :

  • Ajout de plus d’options de vérification : « Nous disposions déjà d’alternatives en développement, y compris la vérification par carte de crédit. Nous les compléterons et les étendrons avant un déploiement mondial afin que vous disposiez de plus d’options avec lesquelles vous êtes à l’aise. »
  • Transparence des fournisseurs : « Nous documenterons chaque fournisseur de vérification et ses pratiques sur notre site web, et il sera clairement indiqué dans le produit qui est chaque fournisseur. Nous avons également établi une nouvelle exigence : tout partenaire proposant une estimation de l’âge par reconnaissance faciale doit l’effectuer entièrement sur l’appareil. S’ils ne respectent pas cette norme, nous ne travaillerons pas avec eux. »
  • Une nouvelle option de canal pour les spoilers : « Nous savons que de nombreuses communautés utilisent des canaux soumis à des restrictions d’âge non pas pour du contenu adulte, mais pour des sujets que les gens préfèrent aborder selon leurs propres termes : les spoilers, la politique et les conversations plus sérieuses. Nous développons une option de canal dédiée aux spoilers afin que les communautés n’aient pas à restreindre l’accès à leur serveur en fonction de l’âge juste pour offrir ce choix à leurs membres. »
  • Un article de blog technique avant le lancement mondial : « Nous publierons un article détaillé expliquant le fonctionnement de nos systèmes automatiques de détermination de l’âge, y compris les catégories de signaux et les contraintes de confidentialité. Afin que vous puissiez évaluer notre approche par vous-mêmes. »
  • Données sur l’assurance de l’âge dans nos rapports de transparence : « Nous inclurons le nombre d’utilisateurs invités à vérifier leur âge, les méthodes qu’ils ont utilisées et la fréquence à laquelle nos systèmes automatisés ont géré cela sans aucune action de l’utilisateur. »

Le fleuron français de l’IA, Mistral, aurait utilisé du contenu protégé pour entraîner son modèle

Rivaliser avec la concurrence nécessite-t-il forcément de s’adonner aux mêmes pratiques douteuses ? D’après l’enquête que publie Mediapart en ce début de semaine en tout cas, la licorne française Mistral aurait, comme OpenAI avec ChatGPT, utilisé un grand nombre d’œuvres protégées par la loi pour enrichir son grand modèle de langage (LLM) et le rendre plus performant. De quoi est-il question exactement ?

De quoi est accusé Mistral AI ?

Mistral AI est de loin l’entreprise tech française la plus avancée en matière d’intelligence artificielle, et possiblement l’entreprise européenne du secteur la plus à même de rivaliser avec les géants américains et chinois. Cependant, Mediapart révèle que la start-up aurait sciemment pillé des milliers de livres, chansons et articles de presse pour entraîner Mistral Large 3-2512, le LLM le plus récent de la jeune pousse.

La source des données d’entraînement des intelligences artificielles est un énorme point de friction entre les entreprises spécialisées et les régulateurs. Aujourd’hui, ce sont de gigantesques boîtes noires ; impossible, ou presque, de savoir sur quoi elles ont été entraînées. Mais, des chemins détournés existent. En fait, les chatbots peuvent carrément cafter sur leurs concepteurs. S’inspirant de techniques déjà mises en œuvre par des chercheurs de l’université de Yale, les journalistes de Mediapart ont réussi à faire restituer des parties complètes de plusieurs ouvrages à Le Chat, le chatbot de Mistral. Des extraits de Harry Potter à l’école des sorciers, du Trône de fer ou de 1984 ont ainsi pu être partagés en intégralité par Le Chat, au mot près.

« La génération de longs textes protégés semble être un élément à charge compromettant sur la présence des textes protégés dans les données d’entraînement des modèles », commente auprès du journal Lê Nguyên Hoang, docteur en mathématique connu pour sa chaîne YouTube Science4all. Et, il ne s’agit pas que d’extraits isolés. Dans ses tests, le journal d’investigation a pu récupérer jusqu’à 35 % de la version anglaise intégrale du premier tome de Harry Potter, et jusqu’à 58 % du Petit Prince.

Des trouvailles similaires ont aussi été faites concernant des chansons protégées par le droit d’auteur, Le Chat étant capable de donner au mot près les paroles d’innombrables chansons — dont certaines par des artistes ayant signé des pétitions s’opposant à l’usage de leurs textes pour entraîner les IA.

Mistral ne respecterait pas l’AI Act

Mediapart met aussi en lumière une autre pratique douteuse de Mistral AI : celle du non-respect de « l’opt-out », ou droit de retrait. Pour entraîner leurs modèles de langage, les concepteurs des intelligences artificielles lancent sur le Web une véritable armée de robots qui se chargent d’aspirer le contenu des sites pour le faire digérer au LLM et l’enrichir. Mais, depuis l’introduction de l’AI Act à l’été 2024, les entreprises spécialisées dans l’IA sont sommées de respecter la volonté des éditeurs de sites web refusant que leur contenu soit utilisé pour entraîner les intelligences artificielles. Or, d’après Mediapart, Mistral AI contourne cette limite (comme son concurrent Perplexity, pris la main dans le sac il y a quelques mois). Le journal se prend lui-même en exemple : « Mediapart a explicitement interdit à Mistral AI-User de se promener sur notre site. Mais, entre le 7 et le 12 février, nous avons constaté plus de 2 800 requêtes provenant des serveurs de Mistral. »

Mais alors, qu’en dit le principal intéressé ? Mistral AI n’a pas répondu aux questions de Mediapart, mais invoque, d’après le journal, un « principe de réalité ». « Internet étant un espace libre et ouvert, certains des contenus que Mediapart évoque, et qui sont particulièrement populaires, sont répliqués à de nombreuses reprises sur Internet », détaille un porte-parole de l’entreprise concernant la présence d’œuvres protégées sur Le Chat.

Et, au sujet des bots qui, mis à la porte de certains sites, décident de passer par la fenêtre ? « Ces bots enrichissent les réponses apportées à [ses] utilisateurs, se justifie Mistral, et ne visent pas à constituer des jeux de données pour entraîner [ses] modèles. »

Mediapart conclut son article en rappelant que l’AI Act, dont les mesures entrent progressivement en vigueur, expose les contrevenants à des amendes pouvant aller jusqu’à 15 millions d’euros.

❌