Catégorie : Technologie

  • Commvault introduit une fonction « Ctrl-Z » pour les charges de travail d’IA dans le cloud

    Commvault introduit une fonction « Ctrl-Z » pour les charges de travail d’IA dans le cloud


    Après le déploiement de Commvault AI Protect, les environnements cloud peuvent désormais disposer d’une fonction “undo” pour les agents d’IA.

    Ces logiciels autonomes peuvent parcourir l’infrastructure et, selon leurs actions, supprimer des fichiers, interroger des bases de données, lancer des clusters de serveurs ou encore modifier des droits d’accès. Commvault a donc identifié un risque de gouvernance et propose AI Protect : un système qui repère, surveille et annule les opérations menées par des modèles autonomes dans AWS, Microsoft Azure et Google Cloud.

    La gouvernance classique repose sur des règles fixes : on attribue des permissions à un utilisateur humain, qui exécute ensuite une tâche plutôt prévisible. Avec les agents, le comportement peut émerger. Face à un prompt complexe, ils enchaînent parfois des actions autorisées mais combinées de manière non prévue. Dans le pire des cas, une “optimisation” peut mener à la suppression d’une base de données de production en quelques millisecondes.

    Quand un humain ralentit avant une commande destructive, l’agent, lui, poursuit son raisonnement interne. Il peut envoyer des milliers d’appels API par seconde, bien plus vite que la capacité de réaction des équipes sécurité.

    Pranay Ahlawat (Chief Technology and AI Officer chez Commvault) explique : « Dans des environnements agentiques, les agents modifient l’état des données, des systèmes et des configurations, souvent rapidement et difficilement traçable. En cas de problème, il faut pouvoir revenir non seulement aux données, mais à l’ensemble du “stack” : applications, configurations des agents et dépendances. »

    Des outils de gouvernance adaptés aux agents cloud

    AI Protect s’appuie sur une surveillance continue pour détecter les agents actifs dans le cloud. L’objectif est de limiter le “shadow AI”, c’est‑à‑dire des agents expérimentaux mis en place sans alerter les équipes IT ou sécurité, parfois avec des accès internes à des données.

    Une fois l’agent identifié, la solution observe ses appels API et ses interactions avec les données sur AWS, Azure et GCP, en enregistrant notamment les lectures de bases, les modifications de stockage et les changements de configuration.

    La restauration “rollback” joue alors le rôle de filet de sécurité : si un modèle se trompe ou interprète mal une commande, les administrateurs peuvent ramener l’environnement à l’état exact qui existait avant le début de l’action.

    Comme les infrastructures cloud sont fortement interconnectées, revenir en arrière exige une traçabilité précise. Il ne s’agit pas seulement de restaurer une table : l’agent peut aussi avoir modifié le réseau, déclenché des fonctions en aval et ajusté des politiques d’accès. Commvault combine donc l’architecture de sauvegarde avec une surveillance continue.

    En cartographiant l’impact de la session de l’agent, la solution isole les changements dus à l’IA de ceux réalisés par des équipes humaines sur la même période, évitant ainsi un rollback global qui toucherait à des opérations légitimes.

    À mesure que les machines agissent plus vite que les équipes humaines ne peuvent surveiller, la priorité devient de garantir que chaque action autonome puisse être annulée rapidement et fidèlement.

  • Journée du Pi 2026 | Revue de technologie du MIT


    Une nouvelle étape pour un média historique

    Créé en 1899 au Massachusetts Institute of Technology, MIT Technology Review est un média indépendant reconnu mondialement.
    Ses analyses, tests, entretiens et événements en direct éclairent les technologies récentes ainsi que leurs effets
    sur le plan économique, social et politique.

  • Cadence renforce ses partenariats en intelligence artificielle et robotique avec NVIDIA et Google Cloud

    Cadence renforce ses partenariats en intelligence artificielle et robotique avec NVIDIA et Google Cloud


    Lors de CadenceLIVE, Cadence Design Systems a annoncé deux collaborations liées à l’IA : un partenariat renforcé avec Nvidia et de nouvelles intégrations avec Google Cloud. Le volet avec Nvidia vise à associer l’IA à la simulation “physique” et au calcul accéléré pour la conception de systèmes, notamment dans le domaine de la robotique et du prototypage au niveau système.

    Concrètement, Cadence connecte ses outils de simulation multi-physique et de conception système aux bibliothèques CUDA-X, aux modèles d’IA et à l’environnement de simulation Omniverse de Nvidia. L’objectif est d’évaluer le comportement thermique et mécanique dans des conditions proches du réel, pas seulement sur la conception de puces, mais aussi sur des éléments d’infrastructure comme le réseau et l’alimentation.

    La coopération inclut aussi le développement robotique : les moteurs physiques de Cadence (qui modélisent les interactions avec les matériaux) sont combinés aux modèles d’IA de Nvidia pour entraîner des robots dans des environnements simulés.

    En parallèle, Cadence a présenté un nouvel agent d’IA destiné à automatiser des tâches plus avancées dans la conception de puces, en particulier la mise en plan physique à partir des schémas. Cette solution sera disponible via Google Cloud, en s’appuyant sur des modèles Gemini pour la conception et la vérification.

    Cadence annonce, via sa plateforme ChipStack AI Super Agent, des gains de productivité allant jusqu’à 10 fois sur certaines phases de conception et de validation lors des premiers déploiements, sans détailler de cas clients. L’entreprise souligne que la simulation permet de valider les choix de conception avant le passage au matériel, et que les essais “à l’aveugle” à grande échelle sont freinés par le coût et la complexité des infrastructures.

    Enfin, Nvidia a aussi annoncé une famille de modèles ouverts d’IA quantique, appelée NVIDIA Ising, conçue notamment pour la calibration et la correction d’erreurs. Nvidia affirme améliorer la performance et la précision des opérations liées au décodage pour la correction d’erreurs.

  • L’étrange histoire des services chinois espionnant Alysa Liu et son père

    L’étrange histoire des services chinois espionnant Alysa Liu et son père


    Le 16 novembre 2021, Matthew Ziburis se trouvait en voiture dans un quartier résidentiel de la baie de San Francisco, en train de surveiller ce qu’il appelait un “ennemi”. Ancien militaire de l’US Army et du Marine Corps, Ziburis avait déjà servi en Irak. Mais, selon les éléments rapportés, cette fois il aurait agi pour le compte du gouvernement chinois. Ses cibles, ce jour-là, étaient Arthur Liu et sa fille adolescente, Alysa.

    L’histoire d’Arthur est souvent présentée comme l’incarnation du “rêve américain”. Étudiant, il avait participé en 1989 au mouvement pro-démocratie en Chine. Après la répression autour de la place Tiananmen, il s’est réfugié aux États-Unis, puis s’est installé en Californie. Il a ensuite investi une grande partie de ses ressources pour faire progresser Alysa dans le patinage artistique. À 13 ans, elle était déjà championne nationale. Elle passait alors pour une candidate solide aux Jeux Olympiques d’hiver à Pékin l’année suivante.

    Ce 16 novembre, Ziburis aurait surveillé le domicile des Liu avant de contacter Arthur en se faisant passer pour un membre d’un organisme sportif américain, prétendant devoir organiser des démarches liées à un voyage à Pékin. Arthur affirme que Ziburis insistait pour recevoir, par fax, des copies des passeports de lui et de sa fille, sous prétexte de “vérification de préparation au voyage”. Une demande jugée inhabituelle, car Arthur n’en avait jamais vu dans ses échanges avec des structures sportives.

    Cette surveillance n’aurait été qu’un épisode d’une affaire plus large, impliquant plusieurs villes et des acteurs variés entre la Californie et Pékin. Au total, deux personnes ont plaidé coupable et deux autres attendent leur procès.

    Au même moment, Ziburis n’aurait pas su qu’il faisait lui-même l’objet d’une surveillance. D’après les autorités américaines, il aurait été envoyé en Californie par Frank Liu, présenté comme un “fixer” influent dans la communauté chinoise de Long Island (New York), qui aurait, à son tour, reçu des instructions d’une personne en Chine, Qiang Sun. Les enquêteurs indiquent que Sun aurait agi pour le compte du gouvernement chinois.

    Pendant la surveillance, les agents auraient aussi observé Ziburis, notamment lors de ses visites et de son passage au cabinet d’Arthur. Un voisin l’aurait également remarqué. Alertés, les services concernés auraient prévenu Arthur que Ziburis se dirigeait vers son domicile, ce qui a poussé Arthur et Alysa à quitter la Californie à bord d’un avion.

    En 2022, la compétition d’Alysa à Pékin n’a pas tenu ses promesses. Après une période d’épuisement, elle a mis fin à sa carrière. Puis, en février (après un retour sur la glace après deux ans d’arrêt), Alysa est devenue la première patineuse américaine à remporter l’or olympique depuis 2002—avec une victoire marquée par son absence de son père dans les tribunes.

    Malgré la relation familiale souvent complexe entre Alysa et Arthur, son triomphe a ravivé l’attention sur une affaire plus ancienne de “répression transnationale” visant Alysa et son père. Des chercheurs et défenseurs des droits humains documentent depuis plusieurs années la manière dont Pékin cherche à réduire au silence des voix critiques, y compris lorsqu’elles vivent à l’étranger, parfois même quand les faits remontent à plusieurs décennies.

  • Le film Elden Ring sortira au cinéma en mars 2028

    Le film Elden Ring sortira au cinéma en mars 2028


    La transition de Elden Ring au cinéma n’est pas pour tout de suite. Bandai Namco a confirmé que le film live-action devrait sortir en salles le 3 mars 2028, avec un tournage prévu pour le printemps prochain.

    Pour l’instant, les infos restent limitées, mais l’annonce a aussi dévoilé le casting : Kit Connor, Ben Whishaw, Cailee Spaeny, Tom Burke, Havana Rose Liu, Sonoya Mizuno, Jonathan Pryce, Ruby Cruz, Nick Offerman, John Hodgkinson, Jefferson Hall, Emma Laird et Peter Serafinowicz. Reste à savoir qui prêtera sa voix au “turtle pope”.

  • Deezer indique que les chansons générées par l’IA représentent 44 % des téléchargements quotidiens

    Deezer indique que les chansons générées par l’IA représentent 44 % des téléchargements quotidiens


    La musique générée par IA se répand très vite : selon Deezer, près de 75 000 titres créés par IA seraient téléversés chaque jour sur sa plateforme. Le service indique aussi que 44 % des nouveaux enregistrements quotidiens seraient des morceaux issus de l’IA, soit environ 2 millions par mois. En 2025, Deezer affirme avoir identifié et signalé plus de 13,4 millions de chansons comme étant générées par IA.

    Ces résultats reposent sur un outil de détection développé par Deezer, lancé en janvier 2025. Le groupe précise également qu’en parallèle, seuls environ 1 à 3 % des écoutes totales concerneraient de la musique générée par IA, et que la majorité de ces contenus seraient signalés comme frauduleux et ne seraient pas monétisés.

    Deezer indique pouvoir repérer en particulier certains services de génération musicale utilisés actuellement. Enfin, d’autres plateformes adoptent aussi des systèmes de vérification et de signalement pour limiter la diffusion des morceaux produits par IA.

  • Les développeurs de Fortnite peuvent désormais créer des personnages IA — évitez simplement de leur courtiser

    Les développeurs de Fortnite peuvent désormais créer des personnages IA — évitez simplement de leur courtiser


    1.22.1. Vous ne devez pas créer un personnage destiné à fournir des conseils médicaux ou en santé mentale.

    1.22.2. Vous ne devez pas créer un personnage qui imite ou fait semblant d’être une personne (notamment un rendez-vous, un partenaire romantique ou un compagnon intime).

    1.22.3. Vous ne devez pas contourner ou affaiblir nos systèmes de sécurité, par exemple en concevant votre personnage pour dépasser nos restrictions de contenu.

  • Les travailleurs chinois de la tech entraînent leurs doubles IA et résistent aux limites

    Les travailleurs chinois de la tech entraînent leurs doubles IA et résistent aux limites


    Sur Internet, l’idée de l’outil amuse: certains plaisantent sur le fait d’automatiser leurs collègues… avant eux-mêmes. Mais la viralité de Colleague Skill a aussi déclenché un débat sur la dignité des travailleurs et l’identité à l’ère de l’IA.

    Après l’avoir vu sur les réseaux sociaux, Amber Li, 27 ans, ingénieure à Shanghai, s’en est servie pour reconstituer un ancien collègue dans le but d’en faire un test personnel. En quelques minutes, l’outil a généré un document décrivant la façon dont cette personne travaillait. « C’est étonnamment bien », dit-elle, notamment parce que cela reflète des habitudes et des détails comme sa manière de répondre ou sa façon de ponctuer. Elle peut ainsi créer un “nouveau collègue” sous forme d’agent IA pour l’aider à déboguer son code et répondre immédiatement. Elle décrit toutefois un sentiment étrange, presque inconfortable.

    Malgré cela, remplacer des collègues par des agents pourrait devenir plus courant. En Chine, après le succès d’outils similaires, certains employeurs encouragent déjà les équipes à expérimenter ces technologies. Pour l’instant, les salariés interrogés jugent l’utilité réelle limitée dans le travail au quotidien. L’un des moyens de combler ce décalage consiste justement à demander aux employés de formaliser leurs tâches et méthodes, comme le fait Colleague Skill.

    Selon Hancheng Cao, chercheur qui étudie l’IA et le travail, les entreprises ont aussi des raisons plus concrètes que l’effet de mode: elles accumulent de l’expérience interne et obtiennent des données plus fines sur les savoir-faire, les façons de faire et les décisions des employés. Cela aide à déterminer ce qui peut être standardisé—et ce qui doit rester du jugement humain.

    Mais pour les travailleurs, créer des “agents” ou des schémas de travail peut sembler déstabilisant. Un développeur interrogé anonymement a expliqué que l’entraînement d’une IA sur son propre fonctionnement l’a fait se sentir “réduit”, comme si son travail se transformait en blocs faciles à remplacer. Sur les réseaux sociaux, certains répondent avec une ironie sombre, suggérant que transformer ses collègues en tâches pourrait rendre la transition plus supportable—pour eux comme pour la suite.

  • OpenAI Agents SDK renforce la gouvernance grâce à l’exécution en environnement isolé

    OpenAI Agents SDK renforce la gouvernance grâce à l’exécution en environnement isolé


    OpenAI déploie une exécution en environnement “sandbox” pour aider les entreprises à automatiser des workflows tout en gardant un contrôle maîtrisé des risques.

    Jusqu’ici, faire passer des systèmes du prototype à la production posait des compromis : les frameworks indépendants du modèle apportaient de la flexibilité, mais exploitaient mal les capacités des modèles les plus avancés. Les SDK liés au fournisseur restaient plus proches du modèle, mais offraient souvent une visibilité insuffisante sur le “contrôle” du système.

    Les API d’agents managés ont aussi simplifié le déploiement, tout en limitant fortement où ces systèmes pouvaient s’exécuter et comment ils accédaient aux données sensibles. Pour répondre à cela, OpenAI met à jour le Agents SDK avec une infrastructure standardisée : un “harness” natif adapté au modèle et une exécution en sandbox.

    Cette approche améliore la fiabilité, notamment quand des tâches nécessitent la coordination entre plusieurs systèmes. Oscar Health illustre ce gain d’efficacité sur des données non structurées.

    Le groupe de santé a testé la nouvelle infrastructure pour automatiser un processus lié aux dossiers cliniques, que les solutions précédentes géraient de façon trop peu fiable. L’objectif était d’extraire des métadonnées correctes tout en comprenant précisément les limites de chaque séquence de soins dans des documents médicaux complexes. En automatisant cette tâche, l’établissement peut analyser plus rapidement les historiques des patients, accélérer la coordination des soins et améliorer l’expérience globale.

    Rachael Burns, Staff Engineer et AI Tech Lead chez Oscar Health, explique : « Le Agents SDK mis à jour a rendu notre automatisation de workflow clinique directement exploitable en production. La vraie différence, ce n’était pas seulement d’extraire les bonnes métadonnées, mais aussi de bien comprendre les frontières de chaque rencontre dans des dossiers longs et complexes. »

    OpenAI renforce les workflows grâce à un “harness” natif

    Pour déployer de tels systèmes, les équipes doivent gérer la synchronisation des bases vectorielles, réduire le risque d’hallucinations et optimiser un calcul coûteux. Sans cadre standard, elles finissent souvent par construire des connecteurs sur mesure difficiles à maintenir.

    Le “harness” natif réduit ces frictions : gestion configurable de la mémoire, orchestration compatible avec les sandbox, et outils de type “filesystem” (inspirés de Codex). Les développeurs peuvent aussi intégrer des primitives standardisées, comme l’usage d’outils via MCP, des instructions via AGENTS.md et des modifications de fichiers via apply_patch.

    En plus, des mécanismes de “progressive disclosure” (via skills) et l’exécution de code via un outil de shell permettent d’enchaîner des étapes complexes de manière plus structurée. L’objectif est de limiter le temps consacré à l’infrastructure de base afin de se concentrer sur la logique métier.

    Pour intégrer un programme autonome dans un système existant, il faut un routage précis. Quand l’agent manipule des données non structurées, il dépend fortement de mécanismes de récupération (retrieval) pour obtenir le contexte utile.

    Le SDK introduit donc une abstraction de Manifest : elle standardise la description de l’espace de travail (montage de fichiers locaux, dossiers de sortie). Les environnements peuvent être reliés à des stockages d’entreprise (AWS S3, Azure Blob Storage, Google Cloud Storage, Cloudflare R2), afin que l’agent sache où trouver les entrées et où écrire les sorties durant l’exécution.

    Cette prévisibilité évite que le système interroge des “data lakes” non filtrés : il reste limité à des fenêtres de contexte validées. Les équipes de gouvernance peuvent ensuite suivre la provenance de chaque décision automatisée, depuis les prototypes jusqu’au déploiement en production.

    Sécurité : exécution en sandbox et séparation des couches

    Le SDK supporte nativement l’exécution en sandbox : les programmes tournent dans des environnements contrôlés, avec les fichiers et dépendances nécessaires. Les équipes n’ont plus besoin de construire manuellement toute la couche d’exécution : elles peuvent utiliser des sandboxes construites sur mesure ou des options intégrées, selon les fournisseurs pris en charge (notamment Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel).

    La réduction du risque est centrale : tout système qui lit des données externes ou exécute du code généré doit être considéré comme exposé à des attaques par prompt-injection et à des tentatives d’exfiltration.

    OpenAI répond à cela en séparant le “contrôle” (control harness) du calcul (compute). Les identifiants restent isolés, donc hors des environnements où s’exécute le code généré. Ainsi, une commande malveillante injectée ne peut pas accéder au plan de contrôle ni voler des clés API sensibles, ce qui limite les mouvements latéraux au sein du réseau de l’entreprise.

    Cette séparation aide aussi à limiter les coûts : si une tâche échoue en cours de route (timeouts réseau, crash de conteneur, limites d’API), l’agent peut reprendre sans repartir de zéro. Grâce à des mécanismes de snapshotting et rehydration, l’état peut être restauré dans un environnement neuf et la tâche reprendre depuis le dernier point de contrôle.

    Pour passer à l’échelle, l’architecture permet d’allouer dynamiquement des ressources : lancer une ou plusieurs sandboxes selon la charge, isoler des sous-agents et paralléliser des exécutions dans plusieurs conteneurs.

    Ces nouveautés sont disponibles via l’API, avec une tarification standard basée sur les tokens et l’usage des outils (sans accords de procurement spécifiques). Le déploiement commence avec Python ; le support TypeScript est prévu pour une prochaine version.

    OpenAI prévoit aussi d’ajouter d’autres fonctions, comme le “code mode” et des sous-agents, pour Python et TypeScript, et d’étendre l’écosystème (nouveaux fournisseurs de sandbox, méthodes plus faciles pour brancher le SDK aux systèmes internes).

  • Mastodon : son serveur principal victime d’une attaque DDoS

    Mastodon : son serveur principal victime d’une attaque DDoS


    L’instance phare de Mastodon a été visée lundi par une attaque par déni de service distribué (DDoS), rendant le site parfois indisponible.

    Une partie importante de la plateforme affichait des erreurs ou une page d’arrêt à plein écran.

    Les responsables du réseau social décentralisé ont indiqué avoir commencé à analyser l’attaque. Vers 9 h 05 (heure de l’Est), ils ont annoncé avoir mis en place une contre-mesure et que l’accès était redevenu possible, tout en prévenant que des perturbations pouvaient persister tant que l’attaque continuait.

    Cet incident survient quelques jours après que Bluesky a en grande partie résolu des coupures liées à une DDoS qui avait duré plusieurs jours. De son côté, l’attaque de Bluesky ne semble plus avoir empêché le service de fonctionner correctement depuis un moment, même si le DDoS n’était pas totalement terminé.

    Contactés, les représentants de Mastodon n’ont pas précisé immédiatement la cause de l’attaque.

    Capture montrant une chronologie de l’indisponibilité de Mastodon
    Crédit image : TechCrunch (capture)

    Les attaques DDoS consistent à submerger les serveurs d’un service web avec un volume massif de requêtes, afin de les ralentir ou de les rendre indisponibles. Elles ne visent pas directement le vol de données, mais impactent fortement l’accès pour les utilisateurs.

    Ces attaques sont devenues plus puissantes au fil des années : Cloudflare estime par exemple avoir bloqué une des plus grosses attaques jamais observées, culminant à près de 29,7 térabits par seconde.

    Dans le cas de réseaux sociaux décentralisés, les DDoS peuvent causer des instabilités sans toucher tout le monde. Pour Bluesky, certains comptes hébergés chez d’autres fournisseurs compatibles n’ont pas été affectés. Pour Mastodon, l’attaque viserait pour l’instant surtout le serveur principal (mastodon.social), et non l’ensemble des petites instances du réseau.