Un créateur sur TikTok demande au mode vocal de ChatGPT de chronométrer une course et découvre que celui-ci n’est pas en mesure de compter le temps. En réaction à la vidéo, Sam Altman admet qu’il s’agit d’une erreur connue qui devrait être corrigée dans un an.
SFR est un opérateur historique en France qui inspire des sentiments mitigés. Certes, l'opérateur au carré rouge s'est nettement amélioré sur le plan technologique avec la 5G+ et le Wi-Fi 7, mais un éventuel rachat par les rivaux pourrait refroidir l'envie de souscrire à un forfait SFR.
La course à l’intelligence artificielle la plus performante n’est pas près de prendre fin. Dans un contexte plus compétitif que jamais, Anthropic lance Claude Opus 4.7, son modèle de langage (LLM) le plus impressionnant, deux mois seulement après la publication d’Opus 4.6, qui restait encore aujourd’hui une référence, notamment en développement.
La meilleure IA du marché ?
Comme c’est désormais la coutume lors de la sortie d’un nouveau LLM, Anthropic sort l’artillerie lourde avec un tableau récapitulant les résultats de sa nouvelle IA sur les différents benchmarks du marché. Sans grande surprise, Claude Opus 4.7 repart en tête dans quasiment tous les tests. Il dépasse d’ailleurs assez nettement Gemini 3.1 Pro pour le développement agentique et signe des progrès importants en analyse financière.
Les résultats de Claude Opus 4.7 sur les différents benchmarks du marché.
Tous ces chiffres pour dire : « On est les plus forts », et remettre une pièce dans la machine. Comme d’habitude, la publication d’un modèle novateur pousse la concurrence à ne pas trop tarder à riposter. On s’attend à ce que Google et OpenAI dégainent dans les prochaines semaines une nouvelle version de leurs LLM respectifs et clament, à leur tour, « On est les plus forts ».
Pourquoi ça ne vous concerne sans doute pas vraiment
Si Anthropic est une entreprise méconnue du grand public, c’est qu’elle oriente depuis toujours sa communication à destination des pros (vers lesquels lorgne désormais aussi OpenAI, qui n’arrive pas à dégager suffisamment d’argent avec ses produits grand public). Opus 4.7 est, comme on le voit dans le tableau ci-dessus, un modèle qui a de quoi faire saliver les développeurs et programmeurs, mais dont les utilisateurs lambda ne verront sans doute pas l’apport, face à Sonnet 4.6 – le modèle grand public de Claude.
Cependant, il y a toujours un effet de ruissellement dans l’IA. Les modèles les plus perfectionnés permettent aux ingénieurs d’apporter aux modèles « inférieurs » de nouvelles capacités et de réduire également leur empreinte énergétique. On fait autant, mais mieux, en quelque sorte. Comme c’est la règle chez Anthropic, Sonnet 4.7 ne devrait également pas trop tarder et pourrait récupérer certaines des spécificités d’Opus pour se montrer plus utile encore aux internautes le préférant à ChatGPT ou Gemini.
Anthropic fait beaucoup parler ces derniers temps en raison des inquiétudes entourant son projet Claude Mythos : une superintelligence artificielle dont la version préliminaire aurait, pour résumer grossièrement, déniché des failles de cybersécurité absolument majeures sur à peu près toutes les infrastructures web du monde. Un grand pouvoir… qui implique de grandes responsabilités, comme le dit l’adage. Aussi, en attendant de savoir comment bien « vendre » Mythos, Anthropic précise d’emblée qu’Opus 4.7 n’est pas un modèle dédié à la cybersécurité.
La course à l’intelligence artificielle la plus performante n’est pas près de prendre fin. Dans un contexte plus compétitif que jamais, Anthropic lance Claude Opus 4.7, son modèle de langage (LLM) le plus impressionnant, deux mois seulement après la publication d’Opus 4.6, qui restait encore aujourd’hui une référence, notamment en développement.
La meilleure IA du marché ?
Comme c’est désormais la coutume lors de la sortie d’un nouveau LLM, Anthropic sort l’artillerie lourde avec un tableau récapitulant les résultats de sa nouvelle IA sur les différents benchmarks du marché. Sans grande surprise, Claude Opus 4.7 repart en tête dans quasiment tous les tests. Il dépasse d’ailleurs assez nettement Gemini 3.1 Pro pour le développement agentique et signe des progrès importants en analyse financière.
Les résultats de Claude Opus 4.7 sur les différents benchmarks du marché.
Tous ces chiffres pour dire : « On est les plus forts », et remettre une pièce dans la machine. Comme d’habitude, la publication d’un modèle novateur pousse la concurrence à ne pas trop tarder à riposter. On s’attend à ce que Google et OpenAI dégainent dans les prochaines semaines une nouvelle version de leurs LLM respectifs et clament, à leur tour, « On est les plus forts ».
Pourquoi ça ne vous concerne sans doute pas vraiment
Si Anthropic est une entreprise méconnue du grand public, c’est qu’elle oriente depuis toujours sa communication à destination des pros (vers lesquels lorgne désormais aussi OpenAI, qui n’arrive pas à dégager suffisamment d’argent avec ses produits grand public). Opus 4.7 est, comme on le voit dans le tableau ci-dessus, un modèle qui a de quoi faire saliver les développeurs et programmeurs, mais dont les utilisateurs lambda ne verront sans doute pas l’apport, face à Sonnet 4.6 – le modèle grand public de Claude.
Cependant, il y a toujours un effet de ruissellement dans l’IA. Les modèles les plus perfectionnés permettent aux ingénieurs d’apporter aux modèles « inférieurs » de nouvelles capacités et de réduire également leur empreinte énergétique. On fait autant, mais mieux, en quelque sorte. Comme c’est la règle chez Anthropic, Sonnet 4.7 ne devrait également pas trop tarder et pourrait récupérer certaines des spécificités d’Opus pour se montrer plus utile encore aux internautes le préférant à ChatGPT ou Gemini.
Anthropic fait beaucoup parler ces derniers temps en raison des inquiétudes entourant son projet Claude Mythos : une superintelligence artificielle dont la version préliminaire aurait, pour résumer grossièrement, déniché des failles de cybersécurité absolument majeures sur à peu près toutes les infrastructures web du monde. Un grand pouvoir… qui implique de grandes responsabilités, comme le dit l’adage. Aussi, en attendant de savoir comment bien « vendre » Mythos, Anthropic précise d’emblée qu’Opus 4.7 n’est pas un modèle dédié à la cybersécurité.
La vente de SFR est depuis plusieurs mois un véritable feuilleton économique. Si le processus prend son temps, la situation a récemment accéléré, notamment avec le dépôt d'une deuxième offre de rachat par les trois autres opérateurs. Nous faisons le point sur la situation de l'opérateur au carré rouge.
L’IA qui fait trembler Hollywood vient d’atterrir sur TikTok. Seedance 2.0 génère des vidéos si bluffantes que Disney et les grands studios américains ont sorti les avocats.
When models can audit firmware and legacy binaries at scale, hiding vulnerabilities stops working. Open, patchable code becomes a core security requirement.
Super Hi-Fi has introduced an AI music scheduling engine that it says is built around neuroscience research.
“Rather than relying on the static rule-sets and rotation caps that have defined scheduling for 40 years, Neuron optimizes sequencing for how the human brain actually experiences music,” it states, “managing attention, contrast, expectation and reward across a full listening session to drive Time Spent Listening.”
A graphic from an article about Neuron posted by Super Hi-Fi. A link is at the bottom of the text.
It said that as a result, its system provides “smarter rotations, better sequencing and more compelling music experiences” for broadcast and digital stations.
The company said Neuron reflects published research from Spotify, Max Planck Institute and academic labs.
It said the system applies “principles of novelty, contrast and expectation,” resulting in music flow that avoids “fatigue from sameness and churn from chaos.”
Features include Adaptive Assist, an intelligence system that works alongside a programmer, shaping the schedule as it is built.
It also introduced a capability called WeatherAware that allows a station’s music schedule to adapt automatically to the weather and time of day without human input. “If it’s hot and sunny, Neuron will subtly favor brighter, more energetic selections. If it’s raining or overcast, the system will adapt accordingly.”
The company has posted an article delving into the new product and the research behind it.
La mise à jour d'avril du SDK Agents d'OpenAI introduit deux nouvelles briques qui manquaient pour passer de l'agent-jouet au déploiement réel. Le sandboxing natif permet de confiner un agent dans un espace de travail isolé, avec accès limité aux fichiers et outils d'un périmètre défini. Et le nouveau harness d'exécution sépare proprement le plan de contrôle (boucle agent, appels modèle, routing d'outils, approbations, tracing, récupération d'erreurs) du plan de calcul (sandbox où l'agent lit, écrit, exécute du code, installe des dépendances, snapshot son état).
L'architecture est pensée pour les agents "long-horizon", ceux qui travaillent sur des tâches complexes en plusieurs étapes, sur des durées longues, avec un besoin de persistance d'état entre les étapes. Le harness gère la coordination, le développeur apporte son propre compute et stockage. C'est une séparation qui permet de brancher le SDK sur n'importe quelle infrastructure, que ce soit Cloudflare, Vercel, Blaxel ou un cluster interne.
Le SDK introduit aussi une abstraction "Manifest" pour décrire un workspace de manière portable. En clair, vous décrivez les outils, les fichiers et les permissions disponibles dans un format standardisé, et le harness sait reconstituer l'environnement ailleurs. C'est utile pour le test, pour la reproductibilité, et pour déployer le même agent dans des environnements différents sans reconfigurer à la main.
Le lancement est Python d'abord, TypeScript prévu après. Classique. Ça peut agacer les équipes full-stack qui bossent en TypeScript, mais c'est quand même très cohérent avec le fait que la majorité des workloads agents en prod tournent encore en Python, surtout côté data et sécurité.
Ce qui est intéressant, c'est le sous-texte. OpenAI pousse un modèle où son SDK est le harness, et le compute est chez le client ou chez un partenaire cloud. C'est un positionnement de plateforme d'orchestration, pas de fournisseur d'infra. Anthropic et Google proposent des approches comparables avec leurs propres SDKs, mais OpenAI a l'avantage du premier écosystème de plugins et d'outils tiers déjà en place.
Bref, pour les devs qui construisent des agents en prod, cette release comble de vrais trous. Sandboxing et harness, c'étaient les deux pièces manquantes.
OpenAI vient de dévoiler GPT-5.4-Cyber, une déclinaison optimisée pour la cybersécurité défensive et plus permissive. À quoi sert-il ? Peut-on en profiter ?
Jérémy Clédat, fondateur et CEO de Welcome to the Jungle présent au salon Go Entrepreneurs Paris, a passé un an à repenser de fond en comble la plateforme de recrutement phare en France. Nous l'avons rencontré pour parler de la nouvelle suite qu'il s'apprête à déployer, mais surtout de ce que l'IA est en train de faire au travail, aux entreprises, à l'éducation -- et au sens même de ce qu'on appelle un métier.
OpenAI cherche à bousculer le monde de la cybersécurité. La start-up vient de dégainer une version de ChatGPT capable de traquer les failles de sécurité, mais elle sera réservée aux chercheurs et aux spécialistes de la défense. Le roi de l'IA cherche surtout à proposer une alternative, plus ouverte, à Claude Mythos de son rival Anthropic.
OpenAI cherche à bousculer le monde de la cybersécurité. La start-up vient de dégainer une version de ChatGPT capable de traquer les failles de sécurité, mais elle sera réservée aux chercheurs et aux spécialistes de la défense. Le roi de l'IA cherche surtout à proposer une alternative, plus ouverte, à Claude Mythos de son rival Anthropic.
Le 14 avril 2026, OpenAI a présenté GPT-5.4-Cyber, une variante de son dernier modèle pensée pour la cyberdéfense et destinée aux professionnels de la sécurité. L’annonce suit de près le bruit médiatique suscité par Anthropic et son projet Glasswing.
Le créateur de ChatGPT vient de racheter Hiro Finance, une startup qui a développé une IA qui se comporte comme un conseiller financier, et qui aide les particuliers à gérer leur trésorerie. Hiro Finance va mettre fin à ses services, mais poursuivra sa mission au sein d’OpenAI.
Après une attaque au cocktail Molotov, la résidence de Sam Altman a de nouveau été visée, cette fois par des tirs, dans la nuit du 11 au 12 avril 2026 à San Francisco. Ces faits, qui ont conduit à plusieurs arrestations, interviennent dans un climat de forte polarisation autour du développement de l’IA.
Meta développe une version virtuelle de Mark Zuckerberg capable de répondre aux employés à sa place, rapporte le Financial Times dans un article publié le 13 avril 2026. Un projet qui illustre, une nouvelle fois, l’accélération de la stratégie du groupe dans l’IA.
Aux dernières nouvelles, seuls 5 % des quelque 900 millions d’utilisateurs et utilisatrices hebdomadaires de ChatGPT paient pour utiliser son intelligence artificielle. Autant dire que ce ne sont pas ces 45 millions de clients qui suffisent à soutenir les investissements massifs de l’entreprise américaine. Pour se montrer plus compétitif, mais également pour tenir tête à son ennemi juré Anthropic (Claude), OpenAI lance une nouvelle version de son abonnement Pro. Voici ce qu’il propose.
Un abonnement taillé pour Codex
Autant le préciser d’emblée : l’abonnement ChatGPT Pro est, comme son nom l’indique, réservé aux professionnels… ou aux passionné·es qui utilisent abondamment le nouvel outil d’aide au développement Codex afin de lancer un projet sur leur temps libre. Affiché à 103 € par mois, son principal intérêt consiste à rehausser considérablement les limites d’utilisation de ChatGPT, notamment au sein de Codex, donc. L’idée est de pouvoir « vibe coder » plus longuement, sans avoir à patienter jusqu’à la réinitialisation des tokens inclus dans son abonnement Plus (ou Go).
D’après la nouvelle grille tarifaire d’OpenAI, ChatGPT Pro offre une limite d’utilisation cinq fois supérieure à celle de la formule ChatGPT Plus. Cet abonnement offre aussi un accès aux modèles de langage (LLM) les plus perfectionnés d’OpenAI, ainsi qu’une « utilisation maximale de la recherche approfondie », utile notamment pour décortiquer de nombreux documents dans leurs moindres détails.
D’autres avantages plus basiques sont évidemment inclus dans la formule, comme la génération d’images rapide et illimitée, et l’accès en avant-première à des fonctionnalités expérimentales.
La nouvelle grille tarifaire de ChatGPT.
Un deuxième abonnement ChatGPT Pro ?
Si vous suivez l’actualité de l’intelligence artificielle, vous savez qu’il existe en réalité déjà un abonnement ChatGPT Pro depuis un peu plus d’un an. Jusqu’ici, cette formule était facturée 200 €, ce qui représente un écart de prix assez démesuré par rapport à la formule ChatGPT Plus, relativement abordable. Pour rendre sa grille de tarifs plus juste, mais également pour concurrencer plus directement Anthropic, qui dispose d’un abonnement Claude Max à 100 $ par mois, OpenAI a donc pris la décision de scinder sa formule Pro en deux.
Le nouveau produit d’appel est donc celui présenté plus haut. Mais les personnes qui le souhaitent peuvent également opter pour l’abonnement ChatGPT Pro à 200 € mensuels, qui n’offre plus des limites d’usage cinq fois supérieures, mais fois supérieures supérieures à celles de ChatGPT Plus. Autant dire un produit cette fois réservé aux utilisateur·rices avides de l’IA, qui ont d’énormes besoins de tokens au quotidien pour mener à bien leurs projets.
Cette nouvelle formule s’intègre dans une période de remise en question pour le fleuron de l’intelligence artificielle, qui déplace ses pions en faveur d’une stratégie commerciale davantage tournée vers les professionnels. En effet, les produits grand public, à l’image du générateur de vidéos Sora, débranché il y a peu, coûtent bien plus qu’ils ne rapportent, et ne permettent pas d’assurer la pérennité de l’entreprise qui, rappelons-le, ne sera pas rentable avant, au mieux, 2029.
Aux dernières nouvelles, seuls 5 % des quelque 900 millions d’utilisateurs et utilisatrices hebdomadaires de ChatGPT paient pour utiliser son intelligence artificielle. Autant dire que ce ne sont pas ces 45 millions de clients qui suffisent à soutenir les investissements massifs de l’entreprise américaine. Pour se montrer plus compétitif, mais également pour tenir tête à son ennemi juré Anthropic (Claude), OpenAI lance une nouvelle version de son abonnement Pro. Voici ce qu’il propose.
Un abonnement taillé pour Codex
Autant le préciser d’emblée : l’abonnement ChatGPT Pro est, comme son nom l’indique, réservé aux professionnels… ou aux passionné·es qui utilisent abondamment le nouvel outil d’aide au développement Codex afin de lancer un projet sur leur temps libre. Affiché à 103 € par mois, son principal intérêt consiste à rehausser considérablement les limites d’utilisation de ChatGPT, notamment au sein de Codex, donc. L’idée est de pouvoir « vibe coder » plus longuement, sans avoir à patienter jusqu’à la réinitialisation des tokens inclus dans son abonnement Plus (ou Go).
D’après la nouvelle grille tarifaire d’OpenAI, ChatGPT Pro offre une limite d’utilisation cinq fois supérieure à celle de la formule ChatGPT Plus. Cet abonnement offre aussi un accès aux modèles de langage (LLM) les plus perfectionnés d’OpenAI, ainsi qu’une « utilisation maximale de la recherche approfondie », utile notamment pour décortiquer de nombreux documents dans leurs moindres détails.
D’autres avantages plus basiques sont évidemment inclus dans la formule, comme la génération d’images rapide et illimitée, et l’accès en avant-première à des fonctionnalités expérimentales.
La nouvelle grille tarifaire de ChatGPT.
Un deuxième abonnement ChatGPT Pro ?
Si vous suivez l’actualité de l’intelligence artificielle, vous savez qu’il existe en réalité déjà un abonnement ChatGPT Pro depuis un peu plus d’un an. Jusqu’ici, cette formule était facturée 200 €, ce qui représente un écart de prix assez démesuré par rapport à la formule ChatGPT Plus, relativement abordable. Pour rendre sa grille de tarifs plus juste, mais également pour concurrencer plus directement Anthropic, qui dispose d’un abonnement Claude Max à 100 $ par mois, OpenAI a donc pris la décision de scinder sa formule Pro en deux.
Le nouveau produit d’appel est donc celui présenté plus haut. Mais les personnes qui le souhaitent peuvent également opter pour l’abonnement ChatGPT Pro à 200 € mensuels, qui n’offre plus des limites d’usage cinq fois supérieures, mais fois supérieures supérieures à celles de ChatGPT Plus. Autant dire un produit cette fois réservé aux utilisateur·rices avides de l’IA, qui ont d’énormes besoins de tokens au quotidien pour mener à bien leurs projets.
Cette nouvelle formule s’intègre dans une période de remise en question pour le fleuron de l’intelligence artificielle, qui déplace ses pions en faveur d’une stratégie commerciale davantage tournée vers les professionnels. En effet, les produits grand public, à l’image du générateur de vidéos Sora, débranché il y a peu, coûtent bien plus qu’ils ne rapportent, et ne permettent pas d’assurer la pérennité de l’entreprise qui, rappelons-le, ne sera pas rentable avant, au mieux, 2029.