Vue lecture

Wikipédia propose la fonctionnalité « à proximité » : découvrez les articles autour de chez vous

Wikipedia (1)

Beaucoup d’utilisateurs l’ignorent, mais si vous utilisez l’application mobile de Wikipédia (à la place de la version web), vous pouvez accéder à une fonctionnalité pour explorer les lieux qui vous entourent. La fonctionnalité est idéale si vous voyagez, ou bien pour redécouvrir un quartier que vous pensiez bien connaître.

  •  

Wikipedia bannit le texte généré par intelligence artificielle

Alors que l’intelligence artificielle facilite énormément la création de faux, et que le « Grokipedia » d’Elon Musk propose une certaine forme de révisionnisme alimenté par l’IA, Wikipedia prend une mesure forte pour garantir la pertinence et la qualité des pages qu’il met en ligne. Si les processus de vérification sont déjà rigoureux, l’émergence des grands modèles de langage (LLM) complexifie considérablement la tâche des modérateur·rices de l’encyclopédie, qui mettent aujourd’hui le holà.

La version anglophone de Wikipedia ne veut plus d’IA

C’est désormais acté : les auteur·rices de pages Wikipedia ne sont plus autorisé·es à utiliser des LLM pour générer des pages ou en réécrire le contenu. L’administrateur·rice Chaotic Enby explique dans un post que cette mesure arrive au terme d’âpres débats au sein de la communauté qui, comme partout, est partagée sur l’utilisation que l’on peut faire des outils d’intelligence artificielle.

« Les précédentes tentatives pour mettre en place une règle commune et mondiale sur les LLM n’ont pas abouti, comme c’est souvent le cas quand on s’attaque à des chantiers aussi énormes, raconte Chaotic Enby. Même ceux qui étaient plutôt d’accord avec le projet ont fini par tiquer sur des points précis, trouvant ça soit trop flou, soit trop pointu. Au final, tout le monde s’accorde sur le fait qu’il faut que ça change, mais personne ne s’entend sur la manière de s’y prendre. »

Un accord a donc finalement été trouvé, notamment grâce à l’introduction de deux exceptions à l’utilisation de l’IA : les éditeurs et éditrices sont autorisé·es à s’aider d’un chatbot pour proposer des améliorations de leur style d’écriture, sans que le contenu soit altéré. En clair, l’utilisation d’un LLM comme un relecteur est autorisée. Autre exception, assez connexe : l’utilisation de l’IA est autorisée dans le cadre d’une traduction d’un long article. Cependant, les éditeur·rices doivent être suffisamment à l’aise dans la langue cible pour pouvoir relire le résultat et opérer des corrections. L’idée est de gagner du temps, pas de déléguer la tâche qui incombe à l’éditeur.

Des mesures en réalité difficilement applicables

Si l’on peut se réjouir que la communauté qui fait vivre une part considérable du savoir commun en ligne se dresse contre les dangers potentiels de l’intelligence artificielle, il faut considérer plusieurs choses. La première est que cette décision ne concerne, pour l’heure, que la version anglaise de Wikipedia (en.wikipedia.org). Chaque instance de l’encyclopédie en ligne dispose de son propre jeu de règles, et l’équipe d’éditeurs français pourrait tout à fait décider, au contraire, de plonger les deux pieds devant dans l’IA (peu probable).

La seconde limite est évidente : s’assurer qu’un texte n’a pas été rédigé intégralement par l’intelligence artificielle est une gageure. A fortiori dans le cas d’articles aussi impersonnels et académiques que ceux des pages Wikipedia. Le site a d’ailleurs mis en ligne un guide, censé aider les éditeur·rices à repérer du texte généré par IA, mais reconnaît d’emblée ses limites : « Certains éditeurs ont un style d’écriture qui peut ressembler à celui des LLM. »

Reste que, comme partout, le simple fait d’interdire formellement une pratique devrait déjà décourager une partie des éventuels faussaires. Au moins, les choses sont clarifiées du côté de Wikipedia, et les contributeurs et contributrices peuvent désormais se reposer sur cette règle absolue pour couper court à tout débat avec quelqu’un qui refuserait de ne plus utiliser l’IA pour ses articles.

  •  

Wikipedia bannit le texte généré par intelligence artificielle

Alors que l’intelligence artificielle facilite énormément la création de faux, et que le « Grokipedia » d’Elon Musk propose une certaine forme de révisionnisme alimenté par l’IA, Wikipedia prend une mesure forte pour garantir la pertinence et la qualité des pages qu’il met en ligne. Si les processus de vérification sont déjà rigoureux, l’émergence des grands modèles de langage (LLM) complexifie considérablement la tâche des modérateur·rices de l’encyclopédie, qui mettent aujourd’hui le holà.

La version anglophone de Wikipedia ne veut plus d’IA

C’est désormais acté : les auteur·rices de pages Wikipedia ne sont plus autorisé·es à utiliser des LLM pour générer des pages ou en réécrire le contenu. L’administrateur·rice Chaotic Enby explique dans un post que cette mesure arrive au terme d’âpres débats au sein de la communauté qui, comme partout, est partagée sur l’utilisation que l’on peut faire des outils d’intelligence artificielle.

« Les précédentes tentatives pour mettre en place une règle commune et mondiale sur les LLM n’ont pas abouti, comme c’est souvent le cas quand on s’attaque à des chantiers aussi énormes, raconte Chaotic Enby. Même ceux qui étaient plutôt d’accord avec le projet ont fini par tiquer sur des points précis, trouvant ça soit trop flou, soit trop pointu. Au final, tout le monde s’accorde sur le fait qu’il faut que ça change, mais personne ne s’entend sur la manière de s’y prendre. »

Un accord a donc finalement été trouvé, notamment grâce à l’introduction de deux exceptions à l’utilisation de l’IA : les éditeurs et éditrices sont autorisé·es à s’aider d’un chatbot pour proposer des améliorations de leur style d’écriture, sans que le contenu soit altéré. En clair, l’utilisation d’un LLM comme un relecteur est autorisée. Autre exception, assez connexe : l’utilisation de l’IA est autorisée dans le cadre d’une traduction d’un long article. Cependant, les éditeur·rices doivent être suffisamment à l’aise dans la langue cible pour pouvoir relire le résultat et opérer des corrections. L’idée est de gagner du temps, pas de déléguer la tâche qui incombe à l’éditeur.

Des mesures en réalité difficilement applicables

Si l’on peut se réjouir que la communauté qui fait vivre une part considérable du savoir commun en ligne se dresse contre les dangers potentiels de l’intelligence artificielle, il faut considérer plusieurs choses. La première est que cette décision ne concerne, pour l’heure, que la version anglaise de Wikipedia (en.wikipedia.org). Chaque instance de l’encyclopédie en ligne dispose de son propre jeu de règles, et l’équipe d’éditeurs français pourrait tout à fait décider, au contraire, de plonger les deux pieds devant dans l’IA (peu probable).

La seconde limite est évidente : s’assurer qu’un texte n’a pas été rédigé intégralement par l’intelligence artificielle est une gageure. A fortiori dans le cas d’articles aussi impersonnels et académiques que ceux des pages Wikipedia. Le site a d’ailleurs mis en ligne un guide, censé aider les éditeur·rices à repérer du texte généré par IA, mais reconnaît d’emblée ses limites : « Certains éditeurs ont un style d’écriture qui peut ressembler à celui des LLM. »

Reste que, comme partout, le simple fait d’interdire formellement une pratique devrait déjà décourager une partie des éventuels faussaires. Au moins, les choses sont clarifiées du côté de Wikipedia, et les contributeurs et contributrices peuvent désormais se reposer sur cette règle absolue pour couper court à tout débat avec quelqu’un qui refuserait de ne plus utiliser l’IA pour ses articles.

  •  

Revue de presse de l’April pour la semaine 3 de l’année 2026

Cette revue de presse sur Internet fait partie du travail de veille mené par l’April dans le cadre de son action de défense et de promotion du logiciel libre. Les positions exposées dans les articles sont celles de leurs auteurs et ne rejoignent pas forcément celles de l’April.

[Numerama] Contrôles CAF: comment fonctionne le nouvel algorithme de data mining?

✍ Amine Baba Aissa, le dimanche 18 janvier 2026.

Alors que le dispositif avait suscité de nombreuses critiques au sein d’associations en France, la CNAF a choisi de ne pas renoncer à son algorithme de contrôle des allocataires et vient de déployer un nouveau modèle de «data mining».​ Cette fois, l’organisme mise sur une communication plus transparente et a décidé

[Mediapart] Wikipédia, les 25 ans d'une utopie réussie devenue le punching-ball de l'extrême droite (€)

✍ Dan Israel, le jeudi 15 janvier 2026.

L’encyclopédie en ligne, gratuite et coopérative, a été lancée le 15 janvier 2001. Avec 65 millions d’articles en 326 langues, son succès a dépassé toutes les attentes, malgré les critiques régulière…"

[Républik IT Le Média] Software Heritage: dix ans de préservation du patrimoine applicatif

✍ Bertrand Lemaire, le mercredi 14 janvier 2026.

Le 28 janvier 2026, Software Heritage fêtera ses dix ans à l’Unesco. Morane Gruenpeter, directrice de la verticale Open-Science, et Bastien Guerry, responsable des partenariats, présentent cette initiative qui vise à préserver le patrimoine applicatif quelque soit le sort des éditeurs ou les feuilles de route de ceux-ci.

[ZDNET] Logiciel libre et souveraineté: la Commission européenne lance un appel à contributions

✍ Thierry Noisette, le lundi 12 janvier 2026.

La Commission propose jusqu’au 3 février aux développeurs, entreprises et communautés open source, administrations et chercheurs de contribuer à la future stratégie européenne d’écosystème numérique ouvert. En identifiant les obstacles à l’adoption de l’open source et en suggérant des mesures concrètes.

Et aussi:

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •