Vue lecture

Stop Killing Games dépasse le million - L'UE va devoir agir

Yop les amis ! Je ne sais pas si vous avez conserver de la grande époque vos jeux PC mais entre ceux qui ne s'installent plus et ceux dont les serveurs sont partis en fumée, y'a de quoi avoir les boules.

Mais tout n'est pas perdu encore parce qu'on vient de franchir un cap monumental pour l'avenir de notre patrimoine de gamer !

En effet, si vous suivez un peu l'actu, vous savez que l'initiative " Stop Killing Games ", lancée par le youtubeur Ross Scott , se bat pour empêcher les éditeurs de transformer nos jeux préférés en quelque chose de mort et inutile. Au début, quand Ross a lancé ça, je me demandais si ça allait vraiment prendre...

Hé bien, je suis un homme de peu de foi car figurez-vous que la pétition européenne a officiellement dépassé le million de signatures validées. Ce sont 1,29 million de citoyens qui ont dit "STOP" à cette pratique douteuse de l'obsolescence programmée logicielle .

C'est H-A-L-L-U-C-I-N-A-N-T !

Concrètement, ça veut dire que la Commission Européenne est maintenant obligée de se pencher sur le sujet. C'est pas comme la France avec ses pétitions en mousse anti-chasse qui disparaissent mystérieusement du site quand elles reçoivent trop de signatures hein ^^. La commission a donc 6 mois pour rencontrer Ross, écouter les arguments et décider s'ils vont pondre une nouvelle loi. Reste à voir s'ils vont pas essayer de noyer le poisson...

J'ai donc tenté de voir ce que les éditeurs en pensaient, et sans surprise, c'est le silence radio ou les excuses bidons. On a depuis longtemps perdu tout simplement le droit de posséder réellement nos jeux. Vous vous souvenez de The Crew d'Ubisoft par exemple ? Hop, serveurs coupés en 2024, jeu injouable. C'est comme si vous achetiez une bagnole et que le constructeur venait reprendre le moteur 3 ans plus tard. C'est n'importe quoi.

Ce qui est cool avec cette initiative je trouve, c'est qu'elle ne demande pas la lune. Elle ne force pas les boîtes à maintenir des serveurs ad vitam aeternam. Elle demande juste qu'en fin de vie, un patch soit fourni. C'est du bon sens technique, et franchement, pour des boîtes qui brassent des milliards, c'est pas la mer à boire. Sauf évidemment pour les jeux qui reposent sur des technos impossibles à libérer, mais à ma connaissance, ça reste des cas isolés.

Alors attention, c'est pas encore gagné, hein car le puissant lobby du jeu vidéo va sûrement sortir les griffes et expliquer que c'est "techniquement impossible" (même si je n'y crois pas une seconde). Mais avec un tel soutien populaire , l'UE ne pourra pas balayer ça d'un revers de main.

Bref, je vais suivre ça de très près, mais c'est déjà une victoire énoooOOOOooorme pour nous tous.

Amusez-vous bien !

Source

  •  

NVIDIA négociait avec Anna's Archive pour entraîner ses IA... et les emails ont fuité

Bon, celle-là elle est gratinée. NVIDIA, le géant des GPU, a directement contacté Anna's Archive pour accéder à environ 500 To de livres piratés. Contacté, négocié, payé. Comme ça, tranquillou.

C'est une class action (dossier n°1:26-cv-00002 au tribunal fédéral de New York, pour ceux qui veulent aller checker) qui a fait fuiter ces fameux emails internes. En gros, un membre de l'équipe "data strategy" de NVIDIA a négocié un accès haute vitesse aux collections piratées de la bibliothèque. Et le plus beau dans l'histoire c'est qu'Anna's Archive les a PRÉVENUS que les données étaient illégales. Genre, texto : "Vous avez une autorisation interne pour ça ?"

La réponse est arrivée en moins d'une semaine. Feu vert. Sauf que bon, quand on lit ça avec du recul, c'est quand même sacrément culotté.

Le contexte, c'était surtout la pression de livrer pour la GTC 2023 (la Developer Conference de NVIDIA). Fallait nourrir les modèles d'IA coûte que coûte, et le dataset Books3 (196 000 bouquins issus de Bibliotik), plus LibGen, Sci-Hub, Z-Library... ça faisait un buffet de 500 To et de leur côté Anna's Archive facturait des dizaines de milliers de dollars pour l'accès rapide.

Sérieux, j'aurais aimé voir la tête du service juridique de NVIDIA en lisant cet email...

En parallèle, Anna's Archive se prend un procès complètement délirant puisque Spotify, Universal Music, Warner et Sony réclament 13 000 milliards de dollars (13 TRILLIONS, soit à peu près le PIB de la Chine). C'est en lien avec leur backup de 300 To de Spotify dont je vous avais parlé ici. Le juge Rakoff a émis une injonction mondiale le 20 janvier, ce qui a fait tomber plusieurs domaines du site .

NVIDIA plaide le "fair use" évidemment. Mouais. On verra bien ce qu'en pensera le juge, mais quand les emails prouvent qu'on t'a prévenu que c'était illégal et que t'as quand même dit "go"... c'est pas ouf comme défense.

En attendant, entre le procès Spotify et ces emails, Anna's Archive est devenue l'ennemi public numéro un de toute l'industrie du contenu sur le web.

Affaire à suivre !

Source

  •  

EU Audit - Le scanner qui révèle la dépendance de votre site aux Etats-Unis

Vous savez combien de services américains vous utilisez sur votre site web utilise sans que vous ne le sachiez réellement ??? Aucun ? Bah et les Google Fonts pour la typo, Cloudflare pour le CDN, YouTube pour les vidéos embarquées, Google Analytics pour les stats et j'en passe des vertes et des pas mûres... ??? Faudrait pas les oublier !

Ainsi même si votre hébergement est chez O2Switch ou Scaleway en France, vos visiteurs peuvent envoyer des données aux USA sans que vous le réalisiez.

Et ça pose un vrai problème juridique car je sais pas si vous vous souvenez du Privacy Shield mais c'était ce fameux accord qui permettait de transférer légalement des données vers les États-Unis ? Hé bien il a été invalidé par la Cour de Justice européenne en 2020. Tout comme Safe Harbor avant lui en 2015 en fait. Et il y a maintenant le Data Privacy Framework, mais rien ne garantit qu'il tiendra plus longtemps que les précédents.

C'est là qu'intervient EU Audit , un scanner gratuit développé par un studio autrichien. Vous entrez l'URL de votre site et en quelques secondes, l'outil analyse vos principales dépendances : hébergement, polices, analytics, CDN, vidéos embarquées, widgets de chat, trackers sociaux et cartes. Chaque élément est vérifié pour déterminer s'il est hébergé dans l'UE ou pas et à la fin, vous obtenez un score de « souveraineté européenne » en pourcentage.

Perso, j'ai testé sur korben.info et je me suis pris une claque. Principalement à cause de Cloudflare et de mes embed de vidéos Youtube.

Pourtant, j'ai plus rien sur mon site à part ça, et mon hébergeur c'est o2Switch et c'est bien en France. Il me parle de "Social" mais j'ai rien du tout, à part des liens vers mes réseaux sociaux... J'sais pas peut être que ça suffit. En fait, suffirait que je vire Cloudflare pour repasser un dans le vert déjà mais je n'ai pas connaissance d'une solution équivalente et pas trop cher (parce que je fais plus de trafic que j'ai de moyens pour le financer, sniiif) qui assure du CDN, de la sécurité, des workers...etc. Ça existe peut-être mais dans ce cas, envoyez moi un mail pour que j'aille voir ça. Après pour l'embed YouTube, pareil, je vois pas trop quoi faire vu que je relaie surtout des vidéos YouTube parce que la Terre entière met ses vidéos là bas...

Bien sûr, j'ai trouvé l'idée de ce scanner pas mal du tout. Ça permet de visualiser rapidement où sont les fuites de données potentielles... Je ne les utilise pas mais y'a Google Fonts par exemple. C'est un classique... Chaque visiteur fait une requête vers les serveurs de Google, qui récupère son IP au passage. Pareil pour les vidéos YouTube embarquées, les maps Google, ou le sempiternel vieux pixel Facebook que certains laissent encore traîner sans même s'en rendre compte. D'ailleurs si vous voulez auditer votre propre hygiène numérique , j'avais fait un guide complet sur le sujet.

Bon après, l'outil ne détecte pas tout (les scripts inline ou les appels API cachés dans votre code, par exemple). Et pour un blog perso sans données sensibles, c'est peut-être un peu overkill. Mais si vous gérez des sites pour des entreprises ou des clients sensibles (administrations, santé, éducation...), y'a de quoi réfléchir ! Surtout que le passage à des alternatives européennes n'est pas toujours aussi compliqué qu'on le croit. Matomo au lieu de Google Analytics, des polices auto-hébergées, OpenStreetMap au lieu de Google Maps...

Si vous voulez soutenir un web indépendant et que je puisse continuer à dénicher ce genre d'outils, ça se passe sur mon Patreon .

Bref, si vous voulez faire le point sur la dépendance de votre site aux GAFAM, c'est gratuit et ça prend 30 secondes.

  •  

IA - La Corée du Sud choisit les muscles plutôt que la peur

Pendant qu’on s’écharpe en Europe sur comment réglementer l'IA, la Corée du Sud vient de siffler la fin de la récré chez elle. Nos amis Coréen viennent en effet de pondre leur première loi qui encadre l’intelligence artificielle (l’AI Act coréen, pour les intimes) et ce qu'on peut dire, c’est que leur approche est très très différente de la nôtre, vous allez voir.

En fait, chez nous, avec l’AI Act européen, on régule principalement par le "risque d’usage". Cela veut dire que si vous faites un outil pour du recrutement, de la santé ou du maintien de l’ordre, hop, vous tombez dans la catégorie "haut risque", et cela peu importe que votre IA tourne sur un Raspberry Pi ou un supercalculateur.

Alors oui l’UE a aussi ses seuils de calcul (les fameux 10^25 FLOPs ) pour identifier les modèles à "risque systémique", mais la base reste quand même l’usage. Les Coréens, eux, ont décidé de se simplifier la tâche en plaçant le curseur presque exclusivement sur ce qu’il y a sous le capot.

Leur critère magique c'est la puissance de calcul cumulée lors de l’entraînement. Et c'est cela qui leur permet de définir ce qu’ils appellent la "high-performance AI" (ou Frontier AI). Pour les devs, c’est un changement complet car si vous codez un petit outil IA bien foutu mais léger, vous aurez une paix royale. Vous esquiverez une paperasse infinie ou de la mise en conformité bloquante si votre projet ne dépasse pas les seuils techniques fixés par le MSIT (le ministère coréen de la science et des TIC).

Et c’est d’ailleurs ce qui rend leur approche très orientée innovation. Le gouvernement coréen a d'ailleurs été très clair : le but n’est pas de bloquer le développement mais de poser un cadre de confiance. Ils ont même prévu une période de grâce d’au moins un an sans aucune sanction administrative le temps que tout le monde s’adapte. Et même après ça, on est loin du climat carcéral car il n'y a pas de sanctions pénales prévues dans cette loi, mais juste des ordres de correction et des amendes plafonnées à 30 millions de won (environ 21 000 euros) si vous ignorez les injonctions.

J’avoue, j’ai dû relire trois fois le texte pour piger la subtilité, mais le diable se cache dans les FLOPS. Parce qu'au moment où j'écris cet article, il n'y a actuellement aucune entreprise en Corée qui dépasse les seuils de puissance de calcul qui rentrent dans le cadre de leur loi. Même Naver, leur géant de la Tech local est loin de ça . C’est dire si la marge est grande.

Après côté transparence, c’est plus classique mais efficace car tout contenu généré par IA qui pourrait être confondu avec la réalité (les deepfakes, pour faire court) doit être clairement indiqué. C’est le minimum syndical aujourd’hui, vous allez me dire, mais là encore, ils ont eu le nez creux en excluant les usages personnels ou non commerciaux du cadre réglementaire, histoire de ne pas fliquer le moindre mème rigolo.

Voilà... alors on va voir qui de la méthode "compteur de tours" ou "check-list de risques" gagne la course, mais bon j'ai ma petite idée. En Europe, on a tendance à vouloir tout border par secteur, alors qu’en Corée, visiblement, ils préfèrent économiser du temps et de l'énergie en surveillant uniquement les gros muscles et en laissant les petits grandir sans les emmerder.

Et même si je ne connais pas du tout l'écosystème tech coréen, force est de constater que leur vision a l'air sacrément plus pragmatique pour l’écosystème tech que la notre.

Source

  •  

X serre la vis de sa plateforme de nudification, mais pas trop fort quand même

Et encore un sujet qui me fout une colère noire et qui montre bien que chez certains, l'éthique c'est visiblement tombé dans les chiottes. Vous l'aurez deviné, je parle bien de Grok, l'IA d'Elon Musk, qui se retrouve une fois de plus sur le devant la scène.

Grâce à la magie de l'IA, ce chatbot permettait jusqu'à présent de générer des images de vraie personnes en tenues légères (bikinis, sous-vêtements...) voire complétement à poil à partir de simples photos. C'est ce qu'on appelle la "nudification" et c'est, disons-le clairement, une saloperie sans nom qui a été utilisée pour harceler des femmes, des jeunes filles et accessoirement faire zizir à tous les pédo nazis qui trainent sur X.

Toutefois, suite à une forte pression réglementaire au Royaume-Uni, en Californie, et même au blocage complet de la plateforme X en Indonésie et en Malaisie, X Safety (lol) vient enfin de serrer la vis. Mais bon, comme d'habitude avec Musk, il a fallu attendre d'être au pied du mur, parce que son éthique et son empathie sont surement restées dans la boite à gants du Roadster Tesla de Starman.

Désormais, la plateforme va donc "geobloquer" la génération d'images de personnes réelles en bikini ou sous-vêtements (le fameux "spicy mode") là où c'est restreint par la loi. "LÀ OÙ C'EST RESTREINT PAR LA LOI"... oui oui... Pourquoi se faire chier hein... si mettre des gens à poil sans leur autorisation est autorisé par ton pays, c'est 👍

X affirme également avoir implémenté des mesures technologiques pour empêcher l'usage de Grok afin d'éditer des photos pour dévêtir des gens mais apparemment, ça marche pas de fou de ce que j'ai pu lire aujourd'hui. En tout cas, je trouve ça dingue qu'il faille des enquêtes et des suspensions d'accès à tout un réseau social pour que le bon sens l'emporte...

En attendant, X a réservé l'accès à Grok aux abonnés payants sur la plateforme, officieusement pour améliorer la traçabilité des abus, même si dans les faits, payer ne garantit en rien d'assurer le lien avec l'identité de l'utilisateur. Et surtout, ces nouvelles restrictions anti-nudification s'appliquent désormais à tout le monde, y compris à ceux qui passent à la caisse.

Après quand on voit que la réponse automatisée de xAI aux journalistes était y'a pas si longtemps un magnifique " Legacy Media Lies " d'enfant de 5 ans, on mesure le niveau de maturité de toute l'entreprise X...

Source

  •  

La France remet ça et ordonne aux VPNs de bloquer encore plus de sites pirates

Bon, je vous en parlais déjà en mai dernier , la justice française avait décidé de s'attaquer aux VPN pour lutter contre le piratage des matchs de foot. Et bien devinez quoi ? Ils ont remis le couvert, et cette fois c'est encore plus costaud !

Le 18 décembre dernier, le Tribunal judiciaire de Paris a rendu une nouvelle ordonnance à la demande de la Ligue de Football Professionnel et de sa branche commerciale. Du coup, les gros du secteur des tunnels chiffrés vont devoir obtempérer : CyberGhost, ExpressVPN, NordVPN, ProtonVPN et Surfshark sont tous dans le viseur. Hop, 5 services de confidentialité d'un coup qui se retrouvent obligés de jouer les censeurs !

Concrètement, ces fournisseurs doivent bloquer l'accès à 13 domaines pirates, parmi lesquels miztv.top, strikeout.im, qatarstreams.me ou encore prosmarterstv.com. Bref, les sites de streaming foot gratuit vont avoir la vie dure. Et le plus flippant dans l'histoire c'est que ce dispositif est "dynamique", ce qui signifie que l'ARCOM peut rajouter de nouvelles adresses à la liste quand bon lui semble, sans repasser devant un juge. Les blocages resteront donc actifs pour toute la saison 2025-2026.

L'argument massue du tribunal c'est que, je cite : "la neutralité technique n'équivaut pas à l'immunité juridique". En gros, ce n'est pas parce que un service de VPN promet de ne rien logger et de protéger la vie privée de ses utilisateurs que ces entreprises peuvent ignorer les injonctions des ayants droit. Les juges ont donc balayé d'un revers de main l'argument des obligations contractuelles envers les clients. Adios la promesse d'anonymat quand la LFP débarque avec ses avocats !

D'ailleurs, parlons un peu de mon partenaire NordVPN puisqu'ils font partie de la liste des concernés. Car même si cette décision cible le streaming de foot pirate, ça pose quand même des questions sur l'avenir de ces services...

En effet, ce qu'il y a de bien avec un service comme NordVPN, c'est qu'il permet de protéger sa vie privée, de sécuriser ses connexions Wi-Fi publiques et d'accéder à des contenus bloqués géographiquement de façon légitime. En plus de ça, avec leur politique no-log auditée et leurs serveurs présents dans plus de 110 pays, c'est quand même la référence pour ceux qui veulent surfer tranquilles. Et avec les promos actuelles, ça revient à quelques euros par mois pour protéger jusqu'à 10 appareils. Jetez un œil à leurs offres (lien affilié) si vous cherchez à sécuriser votre connexion, et pas juste pour mater du foot pirate, hein !

Bref, comme je le disais dans mon article précédent, toute cette histoire, c'est un peu comme essayer d'arrêter l'eau qui coule avec une passoire. Les pirates les plus motivés changeront simplement de service ou trouveront d'autres moyens de contournement. Et pendant ce temps, les utilisateurs lambda qui se servent d'un VPN pour des raisons parfaitement légitimes, genre protéger leurs données dans les McDo au Wi-Fi douteux, se retrouvent avec des services potentiellement bridés.

Voilà, reste à voir comment tout ça sera appliqué dans la vraie vie. Les questions techniques sont nombreuses et les fournisseurs basés hors de France pourraient très bien répondre "mdr" aux injonctions parisiennes. En attendant, surveillez de près les évolutions de votre service préféré dans les prochains mois...

Source

  •  

L'IA détruit-elle nos institutions démocratiques ?

L'IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de publier un papier académique qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l'intelligence artificielle dégrade l'expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Premier exemple, l'algorithme de la CAF.

Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !

C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre ont attaqué cet algorithme devant le Conseil d'État . Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.

Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler le précédent néerlandais de 2021 où un algorithme similaire avait plongé des milliers de familles dans la dette.

Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que La Quadrature du Net appelle des "scores de suspicion" et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!

La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.

Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue. L'UNEF qualifie le système de "fabrique à élite" , et selon un sondage L'Etudiant/BVA/Orange , seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.

Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...

Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".

C'est une erreur qui évoque le comportement typique des systèmes génératifs et l'enquête de Next a montré après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !

Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président a posté sur Instagram une compilation de deepfakes le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.

Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt, une fausse vidéo France 24 générée par des propagandistes russes annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....

Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier, une vidéo deepfake de l'humoriste appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec "Hôtel du Temps" où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.

L'Europe a bien sûr tenté de répondre avec l'AI Act , le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.

Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?

Je dirais qu'en partie, oui.

Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.

Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.

Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...

  •  

Matthew McConaughey™ brevette son visage

Quel grand philosophe du XXIe siècle considère que l'identité personnelle est le dernier rempart contre les algos ?

Hé oui, il s'agit bien de Luciano Floridi , qui défend depuis le milieu des années 2000 le concept de vie privée informationnelle. Pour lui, la vie privée n'est pas une question de secret, mais un droit fondamental à l'immunité personnelle contre les altérations non désirées de l'identité, qu'elles soient actives (vol, clonage, manipulation de données) ou passives (imposition d'informations que l'on n'a jamais choisies).

Autrement dit, notre identité n'est pas un stock de données exploitables, mais une entité informationnelle qui mérite une protection en tant que telle.

Et cette idée vient de trouver une incarnation très concrète à Hollywood.

Matthew McConaughey vient en effet de déposer plusieurs marques couvrant son image, sa voix et même son légendaire "Alright, alright, alright". L'objectif affiché c'est de créer un périmètre juridique pour empêcher l'utilisation de son identité par des systèmes d'IA sans son consentement.

Sur le papier, ça ressemble à un coup de maître mais dans les faits, c'est surtout le symptôme d'une industrie qui panique.

Car une marque ne protège pas une personne, elle protège un signe distinctif dans un cadre commercial. Autrement dit, elle fonctionne très bien pour attaquer des usages visibles, monétisés, centralisés, genre typiquement, des pubs, des vidéos sponsorisées ou des produits qui exploiteraient l'image ou la voix de McConaughey sans autorisation.

En revanche, les outils de face-swapping ou de synthèse vocale se foutent royalement des dépôts de marque. Un type qui fait tourner FaceFusion , Roop ou un modèle open source sur un serveur anonyme ne va pas vérifier si un sourire, une intonation ou une phrase d'accroche sont enregistrés à l'USPTO (C'est l'INPI des USA).

Alors oui, c'est vrai, cette stratégie peut permettre de nettoyer les grandes plateformes comme YouTube, Instagram ou TikTok à coups de demandes de retrait... Mais pour le reste du web, les barrières juridiques sont contournables en deux clics par des modèles décentralisés qui n'ont ni frontières ni service juridique.

Heureusement, pendant ce temps, le cadre légal évolue quand même un peu.

En Europe, l' AI Act impose des obligations de transparence pour les contenus générés ou manipulés par IA, notamment les deepfakes, en exigeant que leur nature artificielle soit clairement signalée dans de nombreux cas. Ce n'est donc pas une interdiction générale, puisqu'on passe du "on peut le faire" au "on doit le dire", mais c'est déjà pas mal.

Et en France, la loi SREN est également venue renforcer l'arsenal pénal, notamment contre les deepfakes non consensuels, en particulier lorsqu'ils portent atteinte à la dignité ou ont une dimension sexuelle.

Maintenant aux États-Unis, il y a le projet de loi NO FAKES Act proposé au Congrès qui vise à donner aux individus un droit fédéral clair pour contrôler l'utilisation de répliques numériques non autorisées de leur voix ou de leur image. Contrairement aux dépôts de marque, ce texte cherche donc à créer une base juridique uniforme pour réclamer la suppression ou l'interdiction d'un deepfake non consenti, avec heureusement, des exceptions pour les œuvres protégées comme les documentaires, les commentaires ou la satire.

Cependant, comme je le souligne dans mon article à ce sujet, le texte tel qu’il est rédigé pose des problèmes sérieux pour l’écosystème open source et pourrait imposer des mécanismes de "notice and stay down" (retrait permanent) sans protections claires contre les erreurs ou les abus, ce qui pourrait refroidir fortement l’innovation dans les outils d’IA générative.

Le problème reste donc identique... même avec des lois comme celle-ci ou la loi TAKE IT DOWN Act qui criminalise certaines formes de deepfakes non désirés, les cadres juridiques peinent à suivre la vitesse d’évolution des modèles et des usages. Et voilà comment on se retrouve avec un McConaughey qui tente de sécuriser son périmètre avec les outils qu'il a sous la main.

C'est plutôt rationnel comme approche, mais c'est surtout un aveu d'impuissance, car protéger une voix ou un visage aujourd'hui avec le droit des marques ou du rafistolage de petits bouts de lois, c'est comme essayer de vider l'océan avec une petite cuillère en argent gravée à son nom.

Du coup, quelle serait la vraie solution ?

Hé bien peut-être arrêter de croire que le droit d'auteur et les bricolages juridiques du XXe siècle peuvent faire le job au XXIe. Comme le défend Floridi, il faudrait un cadre global qui traite l'identité personnelle comme une donnée inaliénable, protégée par un véritable droit à la vie privée informationnelle, et non comme une marque de sac à main de luxe qu'on dépose à l'INPI ou à l'USPTO.

Bref, Matthew essaie de poser une clôture, mais l'IA a déjà sauté par-dessus.

A ce train là, je ne donne pas cher du futur de notre propre visage et de notre propre voix.

Source

  •