« Copilot est uniquement destiné au divertissement » : les conditions d’utilisation de l’IA font peur
![]()
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !
![]()
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !


![]()
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.
23 % en trois mois. C’est la chute du cours de l’action de Microsoft, qui renvoie le géant de l’informatique à la crise de 2008, analysent nos confrères de Presse-Citron. Le fautif ? Des investissements démentiels dans une intelligence artificielle qui ne séduit pas les utilisateurs et utilisatrices, et qui est même tournée en dérision par les internautes.
Après avoir enragé sur la récurrence du terme « Microslop » en ligne, la firme de Satya Nadella avait fait savoir récemment que son assistant d’IA devait être considéré comme un « outil de divertissement », et en aucun cas un outil de travail fiable. Même si cette déclaration a vite été balayée (un texte daté, qui sera bientôt actualisé, assure la marque), le mal est fait : personne ne semble vouloir de l’IA de Microsoft, et surtout pas les professionnels.
Et si Microsoft n’était qu’à quelques mois d’opérer une véritable percée chez les pros avec ses outils d’IA ? C’est ce genre de « persévérance » qui paraît en tout cas animer l’entreprise de Seattle, et certains analystes reconnaissent que l’IA est aujourd’hui capitale pour le maintien de la dynamique de la stratégie B2B de Microsoft. Si l’entreprise desserre la bride sur l’IA, elle laissera simplement sa place à d’autres (au hasard, Anthropic). Inconcevable, même si, aujourd’hui, on estime que seuls 3 % des utilisateurs et utilisatrices de Microsoft 365 sont abonné·es à Microsoft 365 Copilot, rapporte CNBC.
En 2026, il semble impensable de pouvoir échapper à l’intelligence artificielle, en particulier lorsqu’on utilise un ordinateur Windows. Même si la marque a récemment annoncé de profonds changements stratégiques et semble comprendre le ras-le-bol des utilisateurs et utilisatrices face à l’intégration au chausse-pied de fonctions que personne n’a demandées, les effets de cette prise de conscience doivent encore être démontrés.
On en tient pour preuve ce diagramme proprement terrifiant réalisé par le blogueur tech Tey Bannerman. Il s’est lancé le défi de répertorier tous les produits Microsoft qui portent le label « Copilot », donnant ainsi une vision d’ensemble de la dimension tentaculaire qu’a pris l’IA chez Microsoft en seulement quelques années. Attention, ça donne le tournis.

Autant l’écrire : on n’y comprend plus rien. Un manque de clarté assez embarrassant pour un produit pourtant censé faciliter la vie de tout le monde. Gageons que Microsoft profitera du printemps pour opérer un bon petit ménage et tenir sa promesse de se concentrer, enfin, sur des améliorations concrètes de Windows 11.
23 % en trois mois. C’est la chute du cours de l’action de Microsoft, qui renvoie le géant de l’informatique à la crise de 2008, analysent nos confrères de Presse-Citron. Le fautif ? Des investissements démentiels dans une intelligence artificielle qui ne séduit pas les utilisateurs et utilisatrices, et qui est même tournée en dérision par les internautes.
Après avoir enragé sur la récurrence du terme « Microslop » en ligne, la firme de Satya Nadella avait fait savoir récemment que son assistant d’IA devait être considéré comme un « outil de divertissement », et en aucun cas un outil de travail fiable. Même si cette déclaration a vite été balayée (un texte daté, qui sera bientôt actualisé, assure la marque), le mal est fait : personne ne semble vouloir de l’IA de Microsoft, et surtout pas les professionnels.
Et si Microsoft n’était qu’à quelques mois d’opérer une véritable percée chez les pros avec ses outils d’IA ? C’est ce genre de « persévérance » qui paraît en tout cas animer l’entreprise de Seattle, et certains analystes reconnaissent que l’IA est aujourd’hui capitale pour le maintien de la dynamique de la stratégie B2B de Microsoft. Si l’entreprise desserre la bride sur l’IA, elle laissera simplement sa place à d’autres (au hasard, Anthropic). Inconcevable, même si, aujourd’hui, on estime que seuls 3 % des utilisateurs et utilisatrices de Microsoft 365 sont abonné·es à Microsoft 365 Copilot, rapporte CNBC.
En 2026, il semble impensable de pouvoir échapper à l’intelligence artificielle, en particulier lorsqu’on utilise un ordinateur Windows. Même si la marque a récemment annoncé de profonds changements stratégiques et semble comprendre le ras-le-bol des utilisateurs et utilisatrices face à l’intégration au chausse-pied de fonctions que personne n’a demandées, les effets de cette prise de conscience doivent encore être démontrés.
On en tient pour preuve ce diagramme proprement terrifiant réalisé par le blogueur tech Tey Bannerman. Il s’est lancé le défi de répertorier tous les produits Microsoft qui portent le label « Copilot », donnant ainsi une vision d’ensemble de la dimension tentaculaire qu’a pris l’IA chez Microsoft en seulement quelques années. Attention, ça donne le tournis.

Autant l’écrire : on n’y comprend plus rien. Un manque de clarté assez embarrassant pour un produit pourtant censé faciliter la vie de tout le monde. Gageons que Microsoft profitera du printemps pour opérer un bon petit ménage et tenir sa promesse de se concentrer, enfin, sur des améliorations concrètes de Windows 11.

À partir du 24 avril, GitHub activera par défaut la collecte des données d'interaction Copilot pour les utilisateurs Free, Pro et Pro+. Le gros sujet ici, c'est que le code, les suggestions acceptées et même la structure de vos dépôts pourront servir à améliorer les modèles d'IA de la plateforme.
GitHub vient d'annoncer une mise à jour de sa politique de confidentialité qui concerne directement Copilot. À compter du 24 avril 2026, la plateforme collectera par défaut les données d'interaction de ses utilisateurs pour entraîner ses modèles d'intelligence artificielle.
On parle ici des suggestions de code acceptées ou modifiées, des extraits de code envoyés au modèle, du contexte autour du curseur, des commentaires, de la documentation, des noms de fichiers, de la structure des dépôts, et même des retours comme les pouces en l'air ou en bas sur les suggestions.
Mario Rodriguez, le directeur produit de GitHub, assure que cette collecte permettra aux modèles de mieux comprendre les méthodes de développement et de proposer des suggestions de code plus précises et sécurisées.
Tous les abonnés Copilot Free, Pro et Pro+ sont concernés par ce changement. Et c'est automatique, pas besoin de cocher quoi que ce soit. Par contre, les comptes Copilot Business et Enterprise échappent à cette collecte, tout comme les étudiants et enseignants qui bénéficient de Copilot Pro gratuitement.
GitHub précise aussi que les utilisateurs qui avaient déjà désactivé le partage de données pour l'amélioration du produit conserveront leur réglage. Pour les autres, c'est l'opt-out qui s'applique, c'est-à-dire que c'est activé par défaut et c'est à vous de faire la démarche pour refuser.
Pour ceux qui ne souhaitent pas que leur code serve à nourrir les modèles de GitHub, la manipulation est assez simple. Il faut se rendre dans les paramètres du compte, section Copilot, puis dans les options de confidentialité.
L'option à désactiver s'appelle "Allow GitHub to use my data for AI model training". GitHub insiste sur le fait que le contenu des dépôts privés n'est pas collecté "au repos", mais attention, si vous utilisez Copilot activement avec le partage activé, vos interactions dans un dépôt privé sont bien concernées.
La tendance est lourde : après Anthropic, JetBrains et Microsoft lui-même, GitHub suit le mouvement et pioche dans les données de ses utilisateurs pour alimenter ses modèles.
Le choix de l'opt-out plutôt que de l'opt-in est quand même un classique américain qui passe toujours un peu mal de ce côté de l'Atlantique. D'ailleurs, sur la page de discussion GitHub, les réactions parlent d'elles-mêmes : 59 pouces vers le bas contre 3 petites fusées.
Difficile de faire plus clair comme signal. Bon par contre, au moins les comptes pro entreprise et les étudiants sont protégés, c'est déjà ça. Reste que pour tous les développeurs indépendants et les contributeurs open source en offre gratuite, c'est un peu l'histoire du produit gratuit dont on finit par être la matière première. Allez, un petit tour dans les paramètres et on n'en parle plus.
Source : Ghacks.net

GitHub vient d'annoncer que les interactions avec l'IA Copilot seront utilisées pour entraîner les modèles IA. Voici comment désactiver la collecte de données.
Le post GitHub va activer par défaut la collecte de données Copilot pour entraîner l’IA a été publié sur IT-Connect.
Microsoft opère un virage stratégique concernant l’intégration de son assistant IA dans Windows 11. L’éditeur américain a annoncé, ce vendredi, une série de modifications visant à améliorer la qualité globale de son système d’exploitation. Parmi les mesures phares : la réduction des points d’accès à Copilot, son intelligence artificielle embarquée. Cette décision intervient alors que ... Lire plus
L'article Microsoft allège Windows 11 : le Copilot recule face aux retours des utilisateurs est apparu en premier sur Fredzone.
Microsoft enterre plusieurs intégrations de Copilot prévues dans Windows 11, notamment dans les notifications, les Paramètres et l’Explorateur de fichiers.
Cet article Trop d’IA dans Windows 11 ? Microsoft abandonne finalement plusieurs fonctions Copilot a été publié en premier par GinjFo.
Microsoft vient de corriger 79 failles de sécurité dans son Patch Tuesday de mars 2026. Parmi elles, une vulnérabilité critique dans Excel qui permet d'utiliser l'agent Copilot pour exfiltrer des données sensibles, le tout sans aucune interaction de la victime. Oui oui, zéro clic.
Cette faille répondant au doux nom de CVE-2026-26144 est une vulnérabilité de type cross-site scripting dans Microsoft Excel, et elle a un petit truc en plus qui la rend franchement inquiétante : elle est capable de détourner le mode Agent de Copilot pour envoyer des données vers l'extérieur, via ce que Microsoft appelle un "unintended network egress".
Traduction : l'IA qui est censée vous aider à rédiger vos tableaux et vos formules devient, l'air de rien, un canal d'exfiltration de données.
Pas besoin que la victime clique sur quoi que ce soit. Pas besoin non plus d'élévation de privilèges. Il suffit d'un accès réseau. Les données qui peuvent fuiter sont loin d'être anodines : documents financiers, propriété intellectuelle, données opérationnelles. Dustin Childs, de la Zero Day Initiative, a qualifié cette faille de "fascinante". On veut bien le croire.
Ce Patch Tuesday de mars n'apporte pas que la CVE-2026-26144. Microsoft a aussi corrigé deux failles d'exécution de code à distance dans Office (CVE-2026-26110 et CVE-2026-26113) qui peuvent être exploitées via le simple volet de prévisualisation.
Ce qui veut dire qu'il suffit de survoler un fichier piégé dans l'explorateur pour déclencher l'attaque, sans même l'ouvrir.
Au total, ce sont 79 vulnérabilités corrigées ce mois-ci, dont trois classées critiques. Bonne nouvelle quand même : c'est le premier Patch Tuesday en six mois sans faille activement exploitée dans la nature. Après les épisodes avec APT28 et la CVE-2026-21509 exploitée par des groupes liés à la Russie en début d'année, ça fait une petite pause bienvenue.
Le truc un peu agaçant dans cette histoire, c'est que Microsoft pousse Copilot dans tous ses logiciels, et que PAF, une faille XSS permet de transformer cet assistant IA en mouchard.
C'est d'autant plus gênant que beaucoup d'entreprises ont activé Copilot sans forcément mesurer ce que ça implique en termes de surface d'attaque. Avec un agent IA qui a accès à vos fichiers et à votre réseau, le moindre trou dans la raquette prend une autre dimension.
Si vous utilisez Excel avec Copilot activé en entreprise, la mise à jour de mars est à installer sans traîner.
Source : Cyberscoop

À cause d'un bug, l'IA Copilot a contourné les politiques DLP de Microsoft 365, exposant ainsi le contenu de mails pourtant classés comme confidentiels.
Le post IA : ce bug a permis à Microsoft Copilot de lire des e-mails confidentiels a été publié sur IT-Connect.