Gemini 3.1 Pro bat encore des records de performance
Google a lancé la version preview de Gemini Pro 3.1, un nouveau modèle de langage qui affiche des performances en nette hausse sur plusieurs benchmarks indépendants face à la concurrence.



![]()
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !
![]()
Dans le film culte Wargames, un supercalculateur menaçait de lancer une guerre nucléaire. En 2026, la réalité dresse un constat tout aussi plus inquiétant : placées aux commandes de simulations géopolitiques, les intelligences artificielles de pointe comme GPT-5.2 ou Gemini 3 Flash choisissent l'escalade atomique dans 95 % des cas.

![]()
Votre café et votre dose de tech vous attendent sur WhatsApp chaque matin avec Frandroid.
![]()
Dans le film culte Wargames, un supercalculateur menaçait de lancer une guerre nucléaire. En 2026, la réalité dresse un constat tout aussi plus inquiétant : placées aux commandes de simulations géopolitiques, les intelligences artificielles de pointe comme GPT-5.2 ou Gemini 3 Flash choisissent l'escalade atomique dans 95 % des cas.
Claude Code tourne en local et c'est son gros avantage car ça permet par exemple d'agir sur votre machine, de lancer des scripts...etc. Mais c'est aussi sa grosse limite car à cause de ça, vous êtes cloué devant votre terminal. J'étais en quête depuis un moment d'une solution et je vous avais déjà parlé de Vibe Companion y'a pas longtemps mais tous ces outils vont disparaitre puisque Anthropic vient de sortir Remote Control, une feature qui transforme claude.ai ou l'app mobile en télécommande pour votre session locale. Comme ça, vos fichiers restent chez vous et seule l'interface voyage.
Votre ordi fait tourner Claude Code normalement, et vous, vous pouvez continuer à lui parler depuis votre iPhone, votre Android, votre iPad ou n'importe quel navigateur Chrome, Firefox, Safari... Pas de serveur exposé, pas de port ouvert, que du HTTPS sortant. C'est plutôt bien foutu vous allez voir !
Bon déjà, un abonnement Pro (Édit : ? on me dit que c'est pas encore actif pour les pro ?) ou Max (pas le choix, les clés API ne marchent pas et les plans Team/Enterprise sont exclus pour le moment). Ensuite, vérifiez que Claude Code est installé et que vous êtes connecté via /login. Acceptez ensuite le "workspace trust" dans votre projet et hop, c'est tout côté prérequis.
Deux options s'offrent à vous ensuite... Soit vous démarrez une nouvelle session dédiée :
claude remote-control
Soit vous êtes déjà en train de bosser dans Claude Code et vous tapez /rc (alias de /remote-control). Avec claude remote-control, seule l'URL apparaît... donc appuyez sur espace pour afficher le joli QR code.
3 flags utiles (uniquement avec claude remote-control, pas /rc) : --verbose pour voir ce qui transite, --sandbox pour forcer le mode bac à sable (désactivé par défaut) et --no-sandbox pour le couper si vous l'avez activé dans votre config.
Ensuite, la méthode la plus rapide c'est de scanner le QR code avec votre téléphone. Sinon, copiez l'URL affichée et collez-la dans n'importe quel navigateur. Dernière option, allez sur claude.ai/code et votre session apparaît dans la liste (les sessions actives ont un petit point vert).
Une fois connecté, vous récupérez votre conversation en cours, vos fichiers, votre contexte... tout. Vous pouvez envoyer des messages, voir les résultats, approuver les modifications de fichiers. Bref, comme si vous étiez devant votre terminal, sauf que vous êtes dans votre canapé, votre lit ou en train de pousser le caddie chez Auchan !
Maintenant, si vous voulez que CHAQUE session Claude Code soit automatiquement accessible à distance, tapez /config dans une session Claude Code, puis activez l'option "Enable Remote Control for all sessions". Et voilà, plus besoin d'y réfléchir ! Chaque claude lancé dans un terminal sera pilotable depuis votre navigateur ou l'app mobile.
Vos sessions prennent le nom de votre dernier message (ou "Remote Control session" par défaut), donc utilisez /rename mon-projet-cool pour les retrouver facilement dans la liste sur claude.ai/code.
Sinon, dans Claude Code avec /mobile vous pouvez aussi afficher directement le QR code pour télécharger l'app Claude sur iOS ou Android.
Bon, après c'est pas non plus parfait car déjà, c'est cappé à UNE SEULE session à distance par instance de Claude Code (si vous en lancez une deuxième, la première se déconnecte). Par contre, plusieurs instances dans des terminaux différents peuvent chacune avoir leur session remote. Le terminal doit également rester ouvert (si vous le fermez, c'est fini). Mais bonne nouvelle quand même, si le laptop passe en veille ou que le réseau saute, ça se reconnectera tout seul au réveil. Le piège, c'est si la machine reste sans réseau plus de 10 minutes... là, la session expire et il faudra relancer claude remote-control.
Soyez rassurés quand même côté sécurité c'est propre (uniquement du HTTPS sortant sur le port 443, zéro port entrant et des identifiants éphémères), mais gardez en tête que
Claude Code a accès à votre terminal
donc sauf si vous activez --sandbox, il peut de ce fait exécuter n'importe quelle commande... donc les mêmes précautions qu'en local s'appliquent !
Du coup si vous en avez marre de rester scotché devant votre terminal, maintenant vous savez quoi faire.
Merci à Lorenper !

![]()
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !
![]()
Lancée le 26 février 2026, la plateforme « Perplexity Computer » ambitionne de transformer l’IA en véritable ordinateur autonome dans le cloud, capable d’orchestrer plusieurs modèles pour exécuter des tâches complexes de bout en bout.
L’entreprise américaine Harbinger, spécialisée dans les châssis de camions électriques, franchit une nouvelle étape stratégique en annonçant l’acquisition de Phantom AI, une société reconnue pour ses solutions logicielles d’aide à la conduite autonome. Cette opération marque la toute première acquisition de Harbinger et illustre clairement sa volonté d’élargir son champ d’action au-delà du matériel. Une ... Lire plus
L'article Harbinger accélère son intégration technologique avec le rachat de Phantom AI est apparu en premier sur Fredzone.![]()
Samsung vient de dévoiler sa nouvelle gamme de smartphones haut de gamme : les Galaxy S26, S26+ et S26 Ultra. Le design évolue peu par rapport à la génération précédente (il s'uniformise pour plus de cohérence entre les trois modèles), mais Samsung impressionne avec une nouveauté majeure : le Privacy Display.
![]()
Le ministère américain de la Défense donne 72 heures à Anthropic pour lui accorder un accès sans restriction à son modèle d’intelligence artificielle Claude. En cas de refus, l’entreprise s’expose à de lourdes sanctions.
![]()
Abonnez-vous à Frandroid sur Google pour ne manquer aucun article !
![]()
Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.
Radio Workflow has expanded its cloud-based, AI-driven broadcast software platform.
The software, which is intended for small to medium-market stations, takes a unified approach to supporting sales, production, traffic and management functions. The company said it has been investing in broadening its “automation, execution intelligence and scalable system design.”
According to CEO Fletcher Ford, “The expanded platform has been architected and designed under the development leadership of Shane Zammit, chief information officer of Radio Workflow, and his team. Under Zammit’s direction, the platform has matured into a fully unified, cloud-native system that connects sales execution, production workflows, creative tools, automation and analytics.”
This includes expansion of Broadcast Buddy, which an AI-driven “operating companion.”
“Broadcast Buddy is embedded throughout the platform to assist users with meeting preparation, account insights, email summarization, activity logging, document and contract drafting, and system navigation,” Ford said.
“Rather than replacing human judgment, the AI supports it, helping small teams move faster without losing control.”
Radio Workflow also has expanded its sales execution and planning tools. “Sellers can build structured weekly plans, prioritize renewals and at-risk accounts, assign clear ask amounts before visits, and log outcomes directly from the field.”
And it has enhanced its broader operational ecosystem. Ford said this includes a modernized production environment focused on upcoming work; AI-assisted creative tools such as voice mapping and Automix; expanded people, promotions and customer management capabilities; centralized cloud storage; and improved navigation.
Info: www.radioworkflow.com
The post Radio Workflow Expands Its Platform appeared first on Radio World.
Rivaliser avec la concurrence nécessite-t-il forcément de s’adonner aux mêmes pratiques douteuses ? D’après l’enquête que publie Mediapart en ce début de semaine en tout cas, la licorne française Mistral aurait, comme OpenAI avec ChatGPT, utilisé un grand nombre d’œuvres protégées par la loi pour enrichir son grand modèle de langage (LLM) et le rendre plus performant. De quoi est-il question exactement ?
Mistral AI est de loin l’entreprise tech française la plus avancée en matière d’intelligence artificielle, et possiblement l’entreprise européenne du secteur la plus à même de rivaliser avec les géants américains et chinois. Cependant, Mediapart révèle que la start-up aurait sciemment pillé des milliers de livres, chansons et articles de presse pour entraîner Mistral Large 3-2512, le LLM le plus récent de la jeune pousse.
La source des données d’entraînement des intelligences artificielles est un énorme point de friction entre les entreprises spécialisées et les régulateurs. Aujourd’hui, ce sont de gigantesques boîtes noires ; impossible, ou presque, de savoir sur quoi elles ont été entraînées. Mais, des chemins détournés existent. En fait, les chatbots peuvent carrément cafter sur leurs concepteurs. S’inspirant de techniques déjà mises en œuvre par des chercheurs de l’université de Yale, les journalistes de Mediapart ont réussi à faire restituer des parties complètes de plusieurs ouvrages à Le Chat, le chatbot de Mistral. Des extraits de Harry Potter à l’école des sorciers, du Trône de fer ou de 1984 ont ainsi pu être partagés en intégralité par Le Chat, au mot près.
« La génération de longs textes protégés semble être un élément à charge compromettant sur la présence des textes protégés dans les données d’entraînement des modèles », commente auprès du journal Lê Nguyên Hoang, docteur en mathématique connu pour sa chaîne YouTube Science4all. Et, il ne s’agit pas que d’extraits isolés. Dans ses tests, le journal d’investigation a pu récupérer jusqu’à 35 % de la version anglaise intégrale du premier tome de Harry Potter, et jusqu’à 58 % du Petit Prince.
Des trouvailles similaires ont aussi été faites concernant des chansons protégées par le droit d’auteur, Le Chat étant capable de donner au mot près les paroles d’innombrables chansons — dont certaines par des artistes ayant signé des pétitions s’opposant à l’usage de leurs textes pour entraîner les IA.
Mediapart met aussi en lumière une autre pratique douteuse de Mistral AI : celle du non-respect de « l’opt-out », ou droit de retrait. Pour entraîner leurs modèles de langage, les concepteurs des intelligences artificielles lancent sur le Web une véritable armée de robots qui se chargent d’aspirer le contenu des sites pour le faire digérer au LLM et l’enrichir. Mais, depuis l’introduction de l’AI Act à l’été 2024, les entreprises spécialisées dans l’IA sont sommées de respecter la volonté des éditeurs de sites web refusant que leur contenu soit utilisé pour entraîner les intelligences artificielles. Or, d’après Mediapart, Mistral AI contourne cette limite (comme son concurrent Perplexity, pris la main dans le sac il y a quelques mois). Le journal se prend lui-même en exemple : « Mediapart a explicitement interdit à Mistral AI-User de se promener sur notre site. Mais, entre le 7 et le 12 février, nous avons constaté plus de 2 800 requêtes provenant des serveurs de Mistral. »
Mais alors, qu’en dit le principal intéressé ? Mistral AI n’a pas répondu aux questions de Mediapart, mais invoque, d’après le journal, un « principe de réalité ». « Internet étant un espace libre et ouvert, certains des contenus que Mediapart évoque, et qui sont particulièrement populaires, sont répliqués à de nombreuses reprises sur Internet », détaille un porte-parole de l’entreprise concernant la présence d’œuvres protégées sur Le Chat.
Et, au sujet des bots qui, mis à la porte de certains sites, décident de passer par la fenêtre ? « Ces bots enrichissent les réponses apportées à [ses] utilisateurs, se justifie Mistral, et ne visent pas à constituer des jeux de données pour entraîner [ses] modèles. »
Mediapart conclut son article en rappelant que l’AI Act, dont les mesures entrent progressivement en vigueur, expose les contrevenants à des amendes pouvant aller jusqu’à 15 millions d’euros.
Rivaliser avec la concurrence nécessite-t-il forcément de s’adonner aux mêmes pratiques douteuses ? D’après l’enquête que publie Mediapart en ce début de semaine en tout cas, la licorne française Mistral aurait, comme OpenAI avec ChatGPT, utilisé un grand nombre d’œuvres protégées par la loi pour enrichir son grand modèle de langage (LLM) et le rendre plus performant. De quoi est-il question exactement ?
Mistral AI est de loin l’entreprise tech française la plus avancée en matière d’intelligence artificielle, et possiblement l’entreprise européenne du secteur la plus à même de rivaliser avec les géants américains et chinois. Cependant, Mediapart révèle que la start-up aurait sciemment pillé des milliers de livres, chansons et articles de presse pour entraîner Mistral Large 3-2512, le LLM le plus récent de la jeune pousse.
La source des données d’entraînement des intelligences artificielles est un énorme point de friction entre les entreprises spécialisées et les régulateurs. Aujourd’hui, ce sont de gigantesques boîtes noires ; impossible, ou presque, de savoir sur quoi elles ont été entraînées. Mais, des chemins détournés existent. En fait, les chatbots peuvent carrément cafter sur leurs concepteurs. S’inspirant de techniques déjà mises en œuvre par des chercheurs de l’université de Yale, les journalistes de Mediapart ont réussi à faire restituer des parties complètes de plusieurs ouvrages à Le Chat, le chatbot de Mistral. Des extraits de Harry Potter à l’école des sorciers, du Trône de fer ou de 1984 ont ainsi pu être partagés en intégralité par Le Chat, au mot près.
« La génération de longs textes protégés semble être un élément à charge compromettant sur la présence des textes protégés dans les données d’entraînement des modèles », commente auprès du journal Lê Nguyên Hoang, docteur en mathématique connu pour sa chaîne YouTube Science4all. Et, il ne s’agit pas que d’extraits isolés. Dans ses tests, le journal d’investigation a pu récupérer jusqu’à 35 % de la version anglaise intégrale du premier tome de Harry Potter, et jusqu’à 58 % du Petit Prince.
Des trouvailles similaires ont aussi été faites concernant des chansons protégées par le droit d’auteur, Le Chat étant capable de donner au mot près les paroles d’innombrables chansons — dont certaines par des artistes ayant signé des pétitions s’opposant à l’usage de leurs textes pour entraîner les IA.
Mediapart met aussi en lumière une autre pratique douteuse de Mistral AI : celle du non-respect de « l’opt-out », ou droit de retrait. Pour entraîner leurs modèles de langage, les concepteurs des intelligences artificielles lancent sur le Web une véritable armée de robots qui se chargent d’aspirer le contenu des sites pour le faire digérer au LLM et l’enrichir. Mais, depuis l’introduction de l’AI Act à l’été 2024, les entreprises spécialisées dans l’IA sont sommées de respecter la volonté des éditeurs de sites web refusant que leur contenu soit utilisé pour entraîner les intelligences artificielles. Or, d’après Mediapart, Mistral AI contourne cette limite (comme son concurrent Perplexity, pris la main dans le sac il y a quelques mois). Le journal se prend lui-même en exemple : « Mediapart a explicitement interdit à Mistral AI-User de se promener sur notre site. Mais, entre le 7 et le 12 février, nous avons constaté plus de 2 800 requêtes provenant des serveurs de Mistral. »
Mais alors, qu’en dit le principal intéressé ? Mistral AI n’a pas répondu aux questions de Mediapart, mais invoque, d’après le journal, un « principe de réalité ». « Internet étant un espace libre et ouvert, certains des contenus que Mediapart évoque, et qui sont particulièrement populaires, sont répliqués à de nombreuses reprises sur Internet », détaille un porte-parole de l’entreprise concernant la présence d’œuvres protégées sur Le Chat.
Et, au sujet des bots qui, mis à la porte de certains sites, décident de passer par la fenêtre ? « Ces bots enrichissent les réponses apportées à [ses] utilisateurs, se justifie Mistral, et ne visent pas à constituer des jeux de données pour entraîner [ses] modèles. »
Mediapart conclut son article en rappelant que l’AI Act, dont les mesures entrent progressivement en vigueur, expose les contrevenants à des amendes pouvant aller jusqu’à 15 millions d’euros.
![]()
En marge du sommet de New Delhi, le PDG d’OpenAI a justifié la consommation énergétique de l’IA en la comparant à celle d’un être humain, tout en qualifiant de « fausses » les affirmations sur la consommation d’eau de ChatGPT.
