Catégorie : Technologie

  • L’innovation s’accélère dans la recharge des appareils

    L’innovation s’accélère dans la recharge des appareils


    Les chargeurs ne se limitent plus à un simple accessoire fourni avec les appareils. Ils s’imposent progressivement comme un équipement central, conçu pour répondre aux besoins d’un écosystème toujours plus connecté. Selon des estimations relayées par IoT Analytics, le nombre d’objets connectés pourrait atteindre environ 20 milliards, ce qui renforce la pression sur les fabricants pour améliorer la puissance, l’efficacité et l’adaptabilité des solutions de recharge.

    Du chargeur périphérique à l’infrastructure du quotidien

    Cette évolution se traduit par une repositionnement du chargeur. L’idée, portée par plusieurs industriels, consiste à en faire un élément “de base” de l’expérience numérique, au même titre que les réseaux ou les plateformes logicielles. Pour Anker Innovations, l’enjeu est clair : passer d’un produit essentiellement utilitaire à une composante à part entière, capable de gérer plusieurs appareils et des usages variés, sans dégrader les performances.

    Des gains réels grâce aux semiconducteurs et à l’architecture

    Pour soutenir cette ambition, les progrès ne portent pas seulement sur la puissance. Ils reposent aussi sur l’optimisation de l’architecture interne et sur l’amélioration des semiconducteurs. Après les avancées liées au GaN (nitrure de gallium), des fabricants mettent en avant des systèmes intégrant des contrôleurs plus performants et d’autres composants de puissance, afin de mieux maîtriser la chaleur et réduire les pertes énergétiques.

    Dans ce cadre, Anker explique avoir combiné des matériaux GaN avec des contrôleurs fonctionnant à fréquence plus élevée, ainsi que d’autres dispositifs pour améliorer le rendement. L’objectif recherché est de transformer la conversion électrique afin d’obtenir des transitions plus “progressives” et de limiter la sollicitation des composants. L’entreprise indique viser un rendement de conversion secondaire supérieur à 99,5% sur certains dispositifs, ainsi que la capacité à maintenir des niveaux de puissance élevés sur un seul port.

    Sur le plan pratique, l’approche “allocation dynamique” de la puissance permettrait d’éviter d’utiliser plusieurs chargeurs distincts. Certains modèles annoncés intègrent en effet une redistribution de capacité en fonction des appareils connectés, ce qui peut réduire l’encombrement d’un setup domestique ou de bureau.

    Vers plus de fréquence et l’arrivée progressive du SiC

    Si le GaNPrime 2.0 illustre l’état actuel de l’architecture, l’étape suivante annoncée par certains acteurs concerne l’augmentation de la fréquence de commutation. En théorie, des fréquences plus élevées peuvent contribuer à diminuer les pertes et à améliorer l’efficacité, tout en permettant des conceptions plus compactes, sous réserve de progrès conjoints sur les matériaux et le contrôle.

    En parallèle, d’autres technologies sont appelées à prendre davantage de place, notamment le carbure de silicium (SiC). Déjà largement utilisé dans des domaines tels que l’électronique de puissance pour véhicules électriques et certaines infrastructures industrielles, le SiC est souvent présenté comme adapté aux environnements nécessitant haute stabilité et fonctionnement à haute température. Pour les appareils plus “grand public”, l’enjeu consiste à rendre cette technologie plus simple à intégrer et plus économique à produire à grande échelle.

    Au final, l’innovation dans la recharge se joue sur un équilibre : fournir davantage de puissance, mieux répartir celle-ci entre plusieurs appareils et réduire les pertes—avec, en toile de fond, la montée d’un monde où les chargeurs doivent suivre le rythme d’usages de plus en plus variés.

  • OpenAI vient de répondre à Claude Mythos

    OpenAI vient de répondre à Claude Mythos


    OpenAI lance une nouvelle initiative dédiée à la cybersécurité, baptisée Daybreak. L’objectif annoncé est simple : aider les organisations à identifier des failles potentielles et à mettre en place des correctifs avant qu’elles ne soient exploitées par des attaquants. Le projet s’appuie sur une approche mêlant modélisation des menaces et automatisation de la détection, avec l’idée de prioriser les risques les plus élevés.

    Une réponse à l’enjeu des vulnérabilités

    Daybreak est présenté comme un dispositif capable de produire un « modèle de menace » à partir du code d’une organisation. Concrètement, il s’agirait d’examiner des scénarios d’attaque possibles, de valider les vulnérabilités les plus plausibles, puis d’automatiser la recherche de celles qui présentent un risque plus important.

    Ce positionnement intervient dans un contexte où les équipes sécurité cherchent des moyens plus rapides pour réduire la surface d’attaque, notamment au rythme des nouvelles intégrations applicatives et des dépendances logicielles.

    Une initiative qui s’inspire de l’approche « sécurité » d’Anthropic

    Le lancement de Daybreak intervient peu après l’annonce par Anthropic de Claude Mythos, un modèle orienté sécurité présenté comme trop sensible pour une mise à disposition publique, et partagé uniquement dans le cadre de son programme interne. Malgré cette stratégie, l’accès à ce modèle aurait été obtenu par des parties non autorisées.

    Dans ce contexte, OpenAI cherche à se positionner sur un volet produit et opérationnel, avec un dispositif qui ne dépend pas uniquement d’un modèle unique, mais combine plusieurs briques.

    Une combinaison de modèles et d’agents

    OpenAI indique que Daybreak regroupe ses modèles les plus performants, l’agent Codex et des partenaires de sécurité. L’idée est de couvrir plusieurs étapes du processus : analyse, modélisation, validation et détection priorisée.

    Le projet inclut aussi des modèles spécialisés, notamment GPT-5.5 with Trusted Access for Cyber et une version GPT-5.5-Cyber, avec un déploiement progressif annoncé. OpenAI affirme par ailleurs travailler avec des partenaires du secteur et des acteurs publics, tout en préparant l’arrivée de modèles plus « cyber-capables ».

    • Modélisation des menaces à partir du code
    • Validation des vulnérabilités les plus probables
    • Automatisation de la détection des risques prioritaires

    Ce que cela peut changer pour les organisations

    À court terme, Daybreak s’inscrit dans une tendance : transformer une partie du travail sécurité (analyse de code, identification de chemins d’attaque, priorisation) en processus plus automatisé. L’intérêt potentiel réside dans la réduction du temps entre la détection et la correction, ainsi que dans une meilleure allocation des ressources sur les vulnérabilités à fort impact.

    Pour les équipes qui cherchent à renforcer leur posture, des solutions d’infrastructure de sécurité restent complémentaires. Par exemple, un module de sécurité matériel (HSM) ou dispositif équivalent peut aider à mieux protéger des clés et à durcir certains parcours sensibles, tandis que des systèmes de supervision ou d’analyse des journaux peuvent améliorer la détection des comportements anormaux (notamment lorsqu’ils sont couplés à des processus de correction).

    Une dynamique à surveiller

    Le lancement de Daybreak met en lumière une compétition en cybersécurité autour de l’usage des modèles d’IA, mais aussi une différence de stratégie : là où certains acteurs privilégient une diffusion très limitée, OpenAI met en avant une intégration progressive de modèles et de partenaires.

    Au-delà de la communication, le point central sera la capacité du dispositif à réduire concrètement le nombre de vulnérabilités exploitées en production, tout en limitant les faux positifs et en s’intégrant aux pratiques des équipes techniques. Pour suivre cette évolution, l’attention portée aux déploiements progressifs et à la qualité des résultats annoncés restera un indicateur clé.

    Dans l’écosystème, les organisations peuvent aussi consolider leur outillage de test et d’analyse. Un outil de scan de dépendances logicielles (ou une solution équivalente) peut s’avérer utile pour compléter une démarche fondée sur l’analyse de code et la priorisation des correctifs.

  • Après le bannissement des routeurs étrangers, la FCC autorise les mises à jour jusqu’en 2029 pour les modèles existants

    Après le bannissement des routeurs étrangers, la FCC autorise les mises à jour jusqu’en 2029 pour les modèles existants



    Après l’interdiction de certains routeurs étrangers aux États-Unis, la FCC indique que les équipements déjà autorisés pourront continuer à recevoir des mises à jour logicielles et de micrologiciel jusqu’en 2029. Dans une décision d’extension de dérogation, l’instance de régulation précise toutefois que ce régime vise à limiter les risques pour les utilisateurs américains.

    Une dérogation prolongée jusqu’au 1er janvier 2029

    La FCC, via son Office of Engineering and Technology, explique que les appareils figurant sur la « Covered List » doivent, en principe, obtenir des dérogations pour continuer à être mis à jour. Dans l’ordre rendu, l’agence affirme que les drones et composants critiques liés aux systèmes d’aéronefs sans pilote ainsi que les routeurs produits à l’étranger et autorisés avant leur inscription sur cette liste pourront bénéficier de ces mises à jour au moins jusqu’au 1er janvier 2029.

    La FCC précise que la dérogation couvre l’ensemble des mises à jour destinées à préserver le fonctionnement des équipements. Elle inclut notamment des correctifs visant à réduire les vulnérabilités et à maintenir la compatibilité avec différents systèmes d’exploitation.

    Vers une intégration durable dans la réglementation

    L’organisme souligne également qu’il entend recommander, « dès que possible », à la Commission d’envisager la pérennisation de cette dérogation par une procédure réglementaire. À ce stade, il s’agit toutefois d’une recommandation, et non d’une décision finale transformant immédiatement la dérogation en règle permanente.

    Si une telle démarche aboutit, la FCC pourrait assortir l’extension de conditions. Une consultation publique serait alors envisagée dans le cadre d’un rulemaking. La régulation actuelle relative au blocage des routeurs aurait, elle, été imposée sans sollicitation préalable du public, ce qui explique que la mise en place d’un régime durable pourrait faire l’objet de nouveaux débats.

    Quelles mises à jour seront autorisées ?

    Selon la FCC, prolonger la dérogation jusqu’en 2029 doit donner à la Commission le temps de se prononcer et d’évaluer les conséquences pour l’intérêt général. L’Office indique vouloir recommander le maintien de ce cadre pour les équipements existants inscrits sur la Covered List, ainsi que pour de futurs appareils « présentant des caractéristiques similaires ».

    La mise à jour du vendredi élargit par ailleurs le champ des changements permis. La dérogation couvre désormais aussi des « Class II permissive changes », alors que l’accord initial ne concernait que les changements de Class I.

    • Class I : modifications qui ne dégradent pas les caractéristiques déclarées par le fabricant ; elles peuvent être effectuées sans dépôt à la FCC.
    • Class II : modifications susceptibles de réduire légèrement les caractéristiques déclarées, mais considérées comme moins sensibles que les changements de Class III.

    En pratique, cette extension semble surtout destinée à s’assurer que les mises à jour « de base » restent autorisées, notamment celles qui corrigent des failles ou maintiennent la compatibilité avec les systèmes utilisés par les consommateurs.

    Pour les utilisateurs souhaitant sécuriser leur réseau tout en respectant les contraintes réglementaires, la mise à jour du matériel peut aussi passer par le remplacement par des équipements courants du marché, comme un routeur maillé compatible Wi‑Fi maillé, ou un routeur orienté sécurité mettant en avant des fonctions de sécurité. Les choix doivent toutefois se faire en vérifiant la conformité aux exigences applicables et la disponibilité des mises à jour.

  • Déploiement de technologies avancées d’intelligence artificielle dans le secteur financier

    Déploiement de technologies avancées d’intelligence artificielle dans le secteur financier


    L’intégration d’outils d’intelligence artificielle dans la finance ne suit pas un schéma uniforme. L’un des changements les plus marquants consiste à passer d’une logique de remplacement à une logique d’« amélioration invisible »: l’IA devient un composant intégré aux processus existants, au lieu de devenir l’objectif final. Cette approche, portée par l’industrialisation des systèmes et l’essor des intégrations, modifie progressivement la façon dont les équipes conçoivent l’automatisation et l’analyse.

    Une IA qui s’efface dans les processus

    La tendance s’oriente vers des capacités « ambiantes », intégrées aux flux de travail, plutôt que vers des fonctions isolées. Les systèmes intégrés, les connecteurs et l’évolution des protocoles d’interopérabilité facilitent le déploiement dans des environnements déjà opérationnels. Dans ce contexte, l’adoption ne dépendrait pas principalement d’économies de coûts ou de nouvelles fonctionnalités, mais de la facilité avec laquelle la technologie s’insère dans l’organisation.

    Concrètement, les équipes privilégient des solutions qui réduisent les frictions d’usage: moins de reconfiguration, moins d’outils redondants, et une meilleure cohérence entre l’IA et les pratiques métiers.

    Le principal frein: les compétences et la compréhension

    Malgré l’attention portée aux données et à la sécurité, un enjeu ressort de plus en plus clairement: l’écart entre expertise métier et maîtrise des outils d’IA. Le défi n’est pas seulement technique. Il concerne aussi la capacité des organisations à comprendre ce que les modèles savent faire, à définir des cas d’usage réalistes et à encadrer correctement leur utilisation.

    Dans certaines entreprises, un risque consiste à restreindre tellement les systèmes que les utilisateurs cherchent des solutions de contournement. La question de la traçabilité devient alors centrale: pouvoir expliquer les décisions, auditer les résultats et détecter les erreurs ou biais est souvent perçu comme un prérequis.

    Vers des agents plus autonomes, mais une transformation progressive

    À moyen terme, l’industrie s’attend à voir apparaître des « agents » capables d’exécuter des tâches complexes en plusieurs étapes, et des systèmes offrant davantage de contexte. L’interopérabilité devrait également permettre une IA plus cohérente et plus durable dans les environnements hétérogènes.

    La transformation la plus structurante pourrait toutefois rester graduelle. L’objectif serait de soutenir le jugement, d’automatiser les tâches répétitives et de limiter le temps consacré au rapprochement et à la correction d’informations historiques. Pour les équipes finance, l’enjeu devient alors de réallouer du temps vers des activités orientées vers l’avenir: pilotage, décisions et planification.

    Repères pratiques pour accompagner l’adoption

    Pour que ces technologies prennent de l’ampleur sans dérive, les organisations s’appuient souvent sur des bases solides: gouvernance claire, exigences d’auditabilité, et montée en compétences. Dans cette logique, des outils de productivité et de documentation structurée peuvent aider à formaliser les procédures et à conserver une trace exploitable des décisions et des contrôles.

    Au final, l’implémentation des technologies d’IA avancées en finance apparaît moins comme une rupture immédiate que comme une évolution d’architecture et de pratiques. Les bénéfices les plus tangibles semblent dépendre autant de la capacité à intégrer l’IA aux processus que de la manière de la gouverner, de la comprendre et de la rendre vérifiable.

  • Le marché américain du SaaS de l’IA agentique représente 100 milliards de dollars

    Le marché américain du SaaS de l’IA agentique représente 100 milliards de dollars


    Bain & Company estime que le marché américain du SaaS fondé sur l’agentic AI (IA capable d’agir de manière autonome pour accomplir des tâches) pourrait atteindre 100 milliards de dollars. L’enjeu central, selon l’étude, n’est pas tant de remplacer des logiciels existants que de transformer un travail de coordination, aujourd’hui largement manuel, en dépenses et en offres logicielles.

    De la coordination entre applications vers de nouveaux logiciels

    Le potentiel identifié par Bain concerne le travail effectué entre plusieurs systèmes d’entreprise. Dans la pratique, de nombreuses équipes doivent faire circuler des informations d’un outil à un autre, par exemple entre un ERP, un CRM et des outils de support, parfois avec l’ajout de gestion fournisseurs ou d’échanges par e-mail.

    Ce “travail de liaison” comprend notamment :

    • extraire des données d’un système et les vérifier par rapport à une autre source ;
    • interpréter des messages non structurés et décider quoi faire (approuver, répondre, escalader ou attendre) ;
    • gérer des cas d’exception qui exigent de la compréhension et une coordination entre processus.

    Bain souligne que l’automatisation classique par règles ou via RPA est souvent limitée dès que les flux impliquent de l’ambiguïté, des informations dispersées ou des décisions contextualisées. L’agentic AI serait mieux à même d’interpréter des signaux provenant de sources variées, d’ordonner des actions dans plusieurs systèmes, tout en restant encadrée par des garde-fous de politique interne.

    Un marché largement sous-exploité

    D’après Bain, les acteurs captent déjà entre 4 et 6 milliards de dollars sur le marché américain lié à ces scénarios. Plus de 90% resterait encore à adresser. À l’extérieur des États-Unis, l’étude estime que le Canada, l’Europe, l’Australie et la Nouvelle-Zélande pourraient générer un marché de taille comparable, portant l’ensemble à environ 200 milliards de dollars pour ces régions et le marché américain.

    Quelle répartition par fonction dans l’entreprise ?

    La taille du potentiel n’est pas identique selon les domaines d’activité. Bain évalue notamment :

    • Ventes comme la plus grosse part à environ 20 milliards, surtout en raison du volume de personnes impliquées, davantage que par un potentiel d’automatisation exceptionnel ;
    • Coût des ventes et opérations autour de 26 milliards, car même une automatisation modérée peut représenter beaucoup à l’échelle des équipes ;
    • R&D/ingénierie, support client et finance sur des ordres de grandeur plus élevés en fonction des flux, avec une fourchette d’environ 6 à 12 milliards de potentiel adressable.

    Sur le niveau d’automatisation réalisable, Bain indique que le support client ainsi que la R&D/ingénierie seraient les plus prometteurs, avec environ 40% à 60% des tâches de workflow susceptibles d’être automatisées. La finance et les ressources humaines se situeraient plutôt autour de 35% à 45%. Les scénarios juridiques seraient plus en retrait, entre 20% et 30%, en raison notamment de l’importance des conséquences d’erreurs.

    Les critères qui rendent un workflow “agent-ready”

    Bain liste six facteurs permettant d’évaluer ce qu’un agent d’IA peut traiter efficacement dans un workflow. Parmi eux, la possibilité de vérifier le résultat (output verifiability), la gravité en cas d’échec, et la disponibilité d’une connaissance suffisamment numérisée.

    Selon l’étude :

    • les tâches avec des signaux de validation clairs sont plus faciles à automatiser ;
    • les domaines exposés à un risque financier ou réglementaire nécessitent plus souvent une supervision humaine ;
    • les agents ont besoin d’entrées structurées et d’un contexte documenté ;
    • l’intégration multi-systèmes (multiples API, authentifications, gestion des exceptions) complique les automatisations bout-en-bout.

    Bain estime que la valeur se concentre là où aucun outil ne constitue, à lui seul, la “source unique” de l’issue finale. Ces workflows traversent alors plusieurs plateformes, typiquement ERP, CRM et support.

    Des modèles à outcomes plutôt qu’aux “sièges”

    L’étude avance que l’arrivée d’agents capables de livrer des résultats complets pourrait pousser les éditeurs à faire évoluer la tarification. Bain évoque une montée en pertinence des modèles fondés sur l’outcome ou l’usage, notamment quand l’agent résout un incident ou traite une facture, plutôt qu’un modèle basé sur le nombre de sièges et de connexions.

    Dans cette logique, une partie du travail commercial pourrait aussi être réorientée : l’accent porterait davantage sur la capacité à prouver des gains et des taux de résolution, et moins sur la seule adoption des licences.

    Comment les éditeurs de SaaS pourraient s’y prendre

    Bain recommande de commencer par sélectionner les workflows clients déjà suffisamment automatisables avec de l’agentic AI, en évaluant la faisabilité au niveau des sous-processus plutôt qu’en supposant que toute une fonction se vaut.

    Les entreprises devraient aussi analyser la qualité des données : complétude, liens directs avec les résultats attendus et aptitude à être exploitées par l’automatisation. Pour combler des lacunes, Bain cite plusieurs voies : développement interne, acquisitions ou partenariats.

    L’étude insiste également sur la nécessité de compétences en “AI engineering”, d’une architecture cloud adaptée à l’orchestration multi-agents, ainsi que de ressources pour l’entraînement et l’inférence des modèles. Enfin, l’alignement des incitations commerciales avec les résultats générés par l’IA serait, selon Bain, un point clé pour éviter de caler le produit sur des logiques historiques.

    Vers des déploiements plus rapides

    Bain estime que la trajectoire d’adoption peut s’accélérer : les cycles de mise en œuvre seraient davantage “mesurés en trimestres” que “en années”, au fur et à mesure que les entreprises collectent des données de déploiement à chaque workflow automatisé.

    Pour illustrer concrètement les besoins, les équipes qui évaluent l’automatisation agentique s’appuient souvent sur des outils de productivité et de recherche documentaire. À ce titre, une solution comme des outils de gestion de base de connaissances peuvent aider à structurer le contexte nécessaire aux agents. Côté orchestration et automatisation des flux, des plateformes d’automatisation de workflows sont également couramment mobilisées pour relier les systèmes et gérer les déclencheurs.

  • La veste signature de Palantir : un virage vers la marque lifestyle

    La veste signature de Palantir : un virage vers la marque lifestyle


    Palantir, entreprise de logiciels connue pour ses contrats liés à la défense et à des systèmes informatiques utilisés par des acteurs publics américains, pousse un nouveau levier marketing dans l’air du temps : des vêtements. Après ses classiques articles de merchandising, la société lance notamment une veste “chore coat” en coton, inspirée du workwear français du XIXe siècle, mais rehaussée d’un logo discret. Le pari questionne autant qu’il séduit, à mesure que la marque cherche à s’imposer comme un “lifestyle brand” auprès d’un public au-delà de la seule communauté tech.

    Une veste de travail, mais un message de marque

    Le modèle présenté ressemble à un vêtement de style utilitaire : une coupe proche des pièces de travail d’autrefois, proposée ici dans des coloris vifs, avec un écusson Palantir sur la poitrine. À près de 239 dollars et malgré des critiques sur les réseaux sociaux, la série a suscité un intérêt immédiat, allant jusqu’à une rupture de stock en cours de journée pour la quantité mise en vente.

    Le “lifestyle” comme stratégie de ralliement

    Depuis plus d’un an, Palantir tente de convaincre qu’elle dépasse le simple cadre d’un éditeur de logiciels. En lançant des produits de mode, l’entreprise cherche surtout à donner un langage visuel à ses sympathisants : porter ses vêtements reviendrait à manifester une forme d’adhésion à son univers et à ses prises de position.

    Dans les faits, les pièces ne reprennent pas systématiquement des codes politiques ou militaires très explicites. L’enjeu est plutôt de créer un signe de reconnaissance : un logo, une silhouette, un style. Pour les supporters, cela peut fonctionner comme un marqueur identitaire. Pour les opposants, le logo reste indissociable de l’image de l’entreprise et de ses activités.

    Pourquoi ce merchandising fait sens… et ses limites

    Le passage de la tech vers la mode n’est pas, en soi, inédit. D’autres acteurs du secteur ont déjà décliné leur identité via du textile, parfois à partir de matériaux ou de designs issus du monde militaire ou industriel, aujourd’hui banalisés dans l’habillement civil. La différence est que Palantir ne produit pas une gamme de vêtements pour des usages techniques : elle vend d’abord une esthétique et une affiliation.

    C’est là que se situent les critiques. Plusieurs observateurs soulignent que “designer” un objet ne suffit pas à créer une légitimité culturelle durable. Un logo peut générer de la visibilité, mais la mode exige aussi une cohérence avec les codes de son époque, une continuité éditoriale et une compréhension fine des goûts d’un public.

    Des acheteurs qui utilisent le vêtement comme conversation

    Parmi les clients, certains décrivent l’achat de merchandising comme un moyen de dialoguer autour de l’entreprise. D’autres achètent pour collectionner, à l’image de personnes qui possèdent plusieurs pièces estampillées de différentes sociétés technologiques. Dans ce contexte, la veste “chore coat” n’est pas seulement un article : elle devient un support de conversation et, parfois, un symbole de positionnement.

    Reste que cette logique produit aussi des frictions : selon les profils, le simple fait de porter un logo Palantir peut susciter des réactions négatives, notamment lorsque l’on associe l’entreprise à ses usages controversés ou à ses contrats à l’international. L’objet vestimentaire devient alors un “signal” interprété par autrui, parfois bien au-delà de l’intention de l’acheteur.

    Un signe de l’obsession de la marque pour la visibilité

    Lancée sur le modèle d’une communauté déjà familière avec les contenus et le débat autour de Palantir, la stratégie vise à transformer des fans et des investisseurs en “ambassadeurs” visibles. Le merchandising fonctionne alors comme un prolongement des canaux numériques : il alimente le buzz, attire l’attention et maintient la marque dans le champ de l’actualité.

    Plus largement, ce mouvement s’inscrit dans une tendance où les entreprises de la tech tentent de s’approprier les codes de la culture, parfois avec des résultats inégaux. Palantir semble vouloir occuper un espace entre fonctionnalité, style et appartenance — un exercice délicat, surtout lorsque l’image de la société est déjà fortement polarisée.

    Si l’on cherche surtout le style “chore coat” sans s’engager dans l’identité de marque, des options proches existent sur le marché. Par exemple, un manteau type chore coat en coton peut apporter cette coupe utilitaire, tandis qu’une alternative plus polyvalente comme un veste de travail en coton pour homme permet d’obtenir un look similaire avec plus de choix de coloris et de finitions.

  • Trois tendances en IA à suivre d’après un économiste lauréat du prix Nobel

    Trois tendances en IA à suivre d’après un économiste lauréat du prix Nobel


    Deux ans après les premières mises en garde de Daron Acemoglu sur l’impact de l’IA au travail, ses réserves n’ont pas vraiment été adoptées par le débat public. Les discours alarmistes sur une « apocalypse » des emplois restent visibles, notamment dans la sphère politique, tandis que certains économistes se montrent désormais plus ouverts à l’idée que l’IA pourrait bouleverser l’emploi. En toile de fond, la question demeure : assiste-t-on à une transformation progressive, mesurable dans les statistiques, ou à un risque plus diffus et encore mal capté par les données ?

    Interrogé pour clarifier son point de vue, Acemoglu estime que les éléments empiriques disponibles soutiennent jusqu’ici sa thèse prudente. Mais il observe aussi des évolutions techniques susceptibles de modifier la trajectoire de l’IA. Son angle se concentre moins sur une éventuelle intelligence artificielle générale imminente que sur les mécanismes concrets qui pourraient, ou non, accélérer la substitution au travail humain.

    Les « agents » : une avancée, mais pas une copie du travail humain

    Parmi les évolutions les plus marquantes figurent les « agents » : des systèmes capables d’accomplir des objectifs de manière plus autonome qu’un simple chatbot. Là où l’IA conversationnelle répond, les agents peuvent tenter d’agir, en enchaînant des actions pour mener une tâche à son terme. Plusieurs entreprises présentent ces outils comme une solution de remplacement « à grande échelle » du travail humain.

    Pour Acemoglu, la conclusion est trop rapide. Selon lui, l’enjeu ne se résume pas à l’autonomie apparente des agents, mais à leur capacité à couvrir l’ensemble d’un poste, avec toutes ses variations, ses transitions et sa gestion d’imprévus. Un travail réel combine souvent de multiples sous-tâches, utilisant des systèmes et des formats différents, avec des changements fluides effectués naturellement par les humains.

    La question décisive est donc la suivante : ces agents parviendront-ils à orchestrer efficacement l’ensemble des segments du travail, sans dériver ni accumuler des erreurs ? Tant que l’on en reste à des démonstrations limitées ou à des performances dépendantes du contexte, le risque de substitution massive reste, aux yeux de l’économiste, moins certain. À l’inverse, si l’« agencement » devient fiable à grande échelle, l’impact sur l’emploi pourrait se renforcer, même sans changement radical vers une intelligence générale.

    Une nouvelle dynamique RH et « économique » dans les entreprises IA

    Au-delà des capacités techniques, Acemoglu souligne un autre signal : les entreprises du secteur n’installent pas seulement des équipes d’ingénieurs. Elles renforcent aussi des structures dédiées à l’analyse des effets économiques de l’IA.

    Cette montée des compétences économiques à l’intérieur des grands acteurs traduit un besoin croissant de comprendre où, comment et à quelles conditions l’IA modifie l’organisation du travail : productivité, réallocation, complémentarités avec les compétences existantes, ou risques de discontinuités. En d’autres termes, les entreprises cherchent à mieux mesurer et anticiper les impacts, y compris du point de vue des décideurs et des cadres réglementaires.

    Dans cette perspective, un indicateur à suivre concerne la façon dont ces équipes traduisent leurs analyses en décisions concrètes : conception des produits, déploiement progressif, ou ciblage de tâches spécifiques plutôt que remplacement global.

    Ce qui inquiète : le décalage entre les statistiques et la réalité du travail

    Acemoglu reconnaît que l’écart entre le débat public et les données peut créer une illusion : d’un côté, les études ne montrent pas encore d’effet clair sur les taux d’emploi ou les licenciements ; de l’autre, les transformations technologiques avancent vite et peuvent agir sur certains segments avant d’apparaître dans les agrégats statistiques.

    Son inquiétude porte donc moins sur un basculement immédiat et spectaculaire que sur la possibilité d’impacts plus graduels mais cumulés : disparition ou réduction de certaines tâches, déstabilisation de certaines professions, et recomposition des compétences. Autrement dit, l’IA peut modifier le travail sans se traduire immédiatement par des chiffres nets au niveau macroéconomique.

    En suivant cette trajectoire, deux questions deviennent centrales : les agents parviennent-ils à s’insérer durablement dans des processus de travail complexes ? Et les organisations humaines parviennent-elles à réorganiser les tâches sans créer de frictions sociales ou économiques trop rapides ?

    Pour explorer l’angle « organisation et productivité » souvent lié à ces sujets, certains acteurs s’équipent aussi d’outils de gestion et d’automatisation qui structurent les flux de travail. Par exemple, un gestionnaire de tâches et de flux peut aider à cartographier les activités et à identifier ce qui relève de l’humain, de l’outil, ou de la combinaison des deux dans un processus concret.

    Dans la même logique, les équipes évaluent parfois l’impact de l’IA en mettant en place des environnements de test et de documentation. Un outil de prise de notes et de traçabilité peut servir à suivre les décisions et mesurer l’évolution des méthodes, ce qui rejoint l’objectif de mieux relier les changements techniques à la réalité opérationnelle.

  • Stimuler l’innovation grâce à l’ingénierie centrée sur les besoins clients

    Stimuler l’innovation grâce à l’ingénierie centrée sur les besoins clients


    Accélérer l’innovation en intelligence artificielle ne dépend pas seulement de la puissance des modèles. Pour atteindre des résultats concrets, certaines équipes misent sur une approche centrée sur le client, combinée à des outils « agentic » et à une base de données solide. L’objectif : passer d’améliorations progressives à une transformation plus rapide et plus utile, en réduisant le temps entre l’expérimentation et le déploiement.

    Des données solides pour des transformations rapides

    Dans cette logique, le rôle de la donnée est déterminant. Sans un écosystème fournissant une information riche et de qualité, il serait difficile de faire émerger des solutions performantes. En revanche, lorsque les données sont bien structurées et que des outils agentic sont ajoutés, le cycle de développement peut changer d’échelle : les équipes apprennent plus vite, testent davantage de variantes et itèrent sur un éventail plus large de réponses aux besoins clients.

    Cette dynamique permet d’accélérer le passage de la conception à l’exécution. En pratique, en confrontant rapidement les solutions aux demandes réelles et en ajustant le système au fil des retours, l’innovation progresse plus vite—et de manière plus ciblée.

    Un exemple d’IA multi-agents au service de l’expérience client

    Capital One a illustré cette approche avec Chat Concierge, un cadre d’IA multi-agents conçu pour améliorer l’expérience des acheteurs de voitures et des concessionnaires. Concrètement, l’assistant peut, au cours d’une même conversation, aider à comparer des véhicules pour orienter le choix, puis organiser des étapes comme la planification d’essais ou la prise de rendez-vous avec des équipes commerciales.

    Les acheteurs peuvent engager la conversation directement via des sites web de concessionnaires participants. De leur côté, les concessionnaires ont la possibilité d’accéder aux échanges et de reprendre le chat via une plateforme dédiée. L’architecture s’appuie sur plusieurs agents logiques travaillant de concert pour reproduire un raisonnement proche de celui d’un interlocuteur humain, tout en agissant à partir des demandes formulées par le client.

    Les piliers d’un état d’esprit « AI-first »

    Une enquête récente indique que la plupart des responsables estiment déjà recourir, à divers degrés, à l’IA agentic. Les bénéfices les plus cités portent sur la détection des fraudes et la sécurité, mais aussi sur la réduction des coûts et l’amélioration de l’efficacité. L’amélioration de l’expérience client revient également parmi les usages perçus comme porteurs.

    À l’avenir, les attentes semblent renforcées : de nombreux dirigeants envisagent de continuer à progresser sur la fraude, la sécurité et, dans une moindre mesure, sur l’expérience client. Dans le secteur bancaire, plusieurs cas d’usage sont souvent évoqués, comme la réponse aux demandes de service, l’ajustement de paiements pour les aligner sur des rythmes de revenus, ou encore l’extraction de clauses clés depuis des accords financiers.

    Pour placer le client au centre de la transformation, l’enjeu est d’adopter une démarche « AI-first » : il ne s’agit pas seulement d’ajouter de l’IA à un produit existant, mais de reconfigurer le problème et la manière dont l’utilisateur l’aborde, en tenant compte des capacités des systèmes fondés sur l’IA.

    Recommandations pour orienter l’innovation vers l’impact

    Parmi les bonnes pratiques mises en avant, plusieurs axes reviennent pour structurer une innovation fiable et utile :

    • Redéfinir la finalité de l’IA autour d’un problème utilisateur. L’intérêt ne réside pas dans la poursuite du « buzz », mais dans la capacité à résoudre des besoins concrets. L’objectif est de produire des effets tangibles, pas seulement des démonstrations rapides.

    • S’appuyer sur une donnée de qualité, bien gouvernée. Une base unifiée et maîtrisée constitue un socle indispensable. Elle conditionne la capacité du système à percevoir, raisonner et agir avant même que l’utilisateur ne formule explicitement sa demande.

    • Repenser les workflows avec l’IA intégrée dès le départ. Les systèmes agentic exigent une supervision rigoureuse et des garde-fous. La confiance passe par des exigences de gouvernance et des standards responsables, notamment pour cadrer la prise d’action.

    Pour soutenir ce type d’approche, les équipes privilégient souvent des outils capables d’orchestrer les flux de données et d’accélérer les cycles d’expérimentation. Par exemple, un environnement orienté MLOps peut aider à gérer plus systématiquement le déploiement et le suivi de modèles, avec des fonctionnalités de traçabilité adaptées aux contraintes opérationnelles, comme une solution MLOps orientée déploiement et monitoring.

    De même, côté données, l’industrialisation passe fréquemment par des solutions de gouvernance, de catalogage et de qualité. Des options de ce type sont parfois sélectionnées pour harmoniser la donnée et réduire les frictions entre systèmes, par exemple un outil de gouvernance et de gestion de la qualité des données.

  • L’IA automatise la conformité RH, sauf pour les besoins spécifiques des entreprises technologiques

    L’IA automatise la conformité RH, sauf pour les besoins spécifiques des entreprises technologiques


    L’intelligence artificielle s’impose dans de nombreux secteurs pour automatiser des tâches de conformité : contrôles de fond en temps réel, surveillance de la paie pour détecter des écarts, analyses prédictives pour anticiper certains risques RH. Pourtant, un volet reste particulièrement difficile à “industrialiser” pour une partie des entreprises technologiques : la gestion des licences de parrainage dans le cadre du système britannique d’immigration.

    Ce décalage crée une situation paradoxale. Les entreprises du secteur, souvent à l’avant-garde de l’automatisation, se heurtent à une obligation réglementaire qui dépend encore largement de processus manuels et de décisions humaines.

    Un contraste frappant entre l’IA et la conformité au sponsor licence

    Dans les start-up et scale-up londoniennes, des équipes développent des outils pour automatiser la relecture de contrats, améliorer le reporting financier ou renforcer le suivi en cybersécurité. En parallèle, la gestion des obligations liées aux travailleurs parrainés s’appuie fréquemment sur des tableurs, des courriels et une connaissance accumulée au fil des dossiers.

    Le problème ne tient pas uniquement au manque d’outils côté entreprise. Les exigences de déclaration s’appuient sur un système administratif qui n’est pas pensé pour une intégration logicielle fluide. Les informations circulent souvent sous des formats peu structurés, et certains événements déclencheurs nécessitent une interprétation au cas par cas.

    Concrètement, quand un salarié voit son poste évoluer, toutes les implications ne sont pas immédiatement “traçables” comme un simple événement technique. Une promotion, un changement de responsabilités ou une modification du périmètre du rôle peuvent entrer dans le champ des “changements matériels” à déclarer rapidement, selon l’appréciation des faits.

    Des enjeux immédiats pour les entreprises et les talents

    Au Royaume-Uni, les données d’application de la réglementation montrent une hausse des révocations de licences sur une période récente. Les entreprises technologiques y apparaissent proportionnellement plus exposées, non pas forcément parce qu’elles seraient moins rigoureuses, mais parce que leur modèle de recrutement les rend structurellement dépendantes du parrainage international.

    Dans les domaines liés à l’IA et au machine learning, les compétences recherchées peuvent être difficiles à trouver localement. Les entreprises s’appuient donc sur des recrutements à l’international, ce qui augmente le nombre de profils concernés par la mécanique des licences.

    Lorsque la licence de parrainage est suspendue, les visas des personnes concernées peuvent être impactés avec une période de validité réduite. Pour une entreprise en forte croissance, cela peut affecter la continuité des équipes, les échéances produit et la relation avec les investisseurs. Pour les travailleurs, le coût humain peut être plus direct : relocalisation familiale, scolarité, logement et stabilité financière, le tout dans un délai très court pour trouver un nouveau parrain ou quitter le pays.

    Pourquoi l’automatisation ne suffit pas

    Plusieurs idées fausses reviennent lorsqu’une entreprise traite la conformité comme une simple fonction RH parmi d’autres.

    • La conformité n’est pas comparable à d’autres processus internes. Une erreur administrative en paie peut être corrigée sans conséquence réglementaire immédiate, alors qu’un manquement de parrainage peut déclencher des mesures formelles.

    • Le logiciel ne résout pas tout. Même avec des outils, l’absence d’architecture “API-first” côté système réglementaire et la nécessité d’apprécier certains cas limitent l’automatisation complète.

    • La notion de “changement matériel” exige un jugement. Selon les règles, des événements comme une modification de titre de poste, de localisation de travail ou de rémunération peuvent déclencher une obligation de notification dans un délai court.

    • La connaissance ne doit pas dépendre d’une seule personne. Si seuls quelques individus comprennent les démarches et les seuils applicables, l’organisation devient vulnérable en cas de départ, d’absence ou de changement interne.

    Approche “systèmes” : structurer pour réduire le risque

    Une façon de traiter le sujet consiste à appliquer des méthodes inspirées du monde technique : considérer la conformité comme un système opérationnel, avec des contrôles intégrés aux workflows existants.

    Cette approche passe notamment par :

    • Définir clairement les événements déclencheurs (changements de rôle, ajustements de salaire au-delà d’un seuil, modifications de responsabilités ou de localisation, absences dépassant certains repères).

    • Mettre en place des “forçages” dans les processus, afin que les équipes RH et paie reçoivent une alerte lorsque l’événement survient.

    • Organiser des boucles de vérification via des audits internes réguliers, par exemple en rapprochant les données paie/contrats de ce qui est enregistré dans le système de gestion.

    • Attribuer un responsable identifié disposant d’une vue claire et d’un mandat réel, plutôt que de traiter la conformité comme une tâche secondaire.

    • Documenter les procédures pour éviter qu’elles reposent sur la mémoire individuelle.

    Dans l’idéal, l’objectif n’est pas de “remplacer” les décisions humaines, mais de sécuriser les étapes de collecte, de qualification et de notification des changements, avant qu’un contrôle externe ne révèle des incohérences.

    Trois questions utiles pour les directions

    Le paradoxe demeure : le secteur technologique peut innover pour automatiser de nombreux sujets, mais ne peut pas toujours automatiser intégralement la conformité liée au parrainage. La différence se joue alors sur la manière dont l’entreprise gère la résilience.

    Les conseils d’administration et directions peuvent notamment se poser :

    • Redondance : si le responsable RH quitte l’entreprise, le processus de déclaration existe-t-il dans un document partagé et testé, ou seulement dans son expérience ?

    • Intégration : l’avocat ou le conseil en immigration intervient-il uniquement en cas de crise, ou aide-t-il à concevoir les contrôles internes ?

    • Visibilité : la direction comprend-elle comment un délai de notification, même court, peut entraîner un impact majeur sur les visas de plusieurs équipes ?

    Pour soutenir une démarche plus structurée, certaines entreprises choisissent d’investir dans des outils de gestion documentaire et de travail collaboratif. Par exemple, un outil de type Notion/gestion de connaissances peut aider à centraliser les procédures et les checklists internes, à condition de les maintenir à jour. De même, une solution d’automatisation de workflows peut être utilisée pour déclencher des revues internes lorsque certains événements RH ou paie surviennent, sans prétendre remplacer l’analyse juridique.

    Au final, l’enjeu pour les entreprises technologiques consiste moins à “mettre une couche d’IA” qu’à construire un système fiable, traçable et testable, capable de gérer des obligations réglementaires qui exigent encore de la vigilance humaine.

  • Le jeu Wordle du New York Times devient une émission télévisée

    Le jeu Wordle du New York Times devient une émission télévisée


    Le New York Times mise encore sur l’engouement autour de Wordle. Après le succès du jeu de lettres sur mobile, le titre va bientôt franchir une nouvelle étape en devenant une émission de divertissement diffusée à la télévision sur NBC. Cette annonce illustre la stratégie d’un groupe médias qui cherche à transformer un phénomène digital en relais durable, en s’appuyant sur de nouveaux formats et de nouvelles audiences.

    Wordle passe de l’écran au plateau

    Selon les informations communiquées, l’émission sera portée par Savannah Guthrie, animatrice de Today. Jimmy Fallon interviendra également en tant que partenaire de production, aux côtés du New York Times et de l’équipe de The Tonight Show. La série devrait commencer à être diffusée sur NBC l’année prochaine.

    Le format est présenté comme « rapide » et pensé pour être accessible en famille. C’est un contraste notable avec l’expérience mobile, où les joueurs prennent souvent le temps de réfléchir et d’analyser plusieurs possibilités à leur rythme.

    Un choix qui s’inscrit dans la stratégie du New York Times

    Le projet marque une collaboration plus directe entre le New York Times et un diffuseur télévisé sur un programme de divertissement. Au-delà du phénomène Wordle, l’enjeu pour le groupe est aussi économique : alors que les revenus de la presse imprimée continuent de reculer, le développement d’activités numériques et d’offres d’abonnement apparaît comme une priorité.

    Wordle a été lancé en octobre 2021 par Josh Wardle. L’acquisition par le New York Times, intervenue l’année suivante, a accompagné la montée en puissance du jeu au sein de l’écosystème de NYT Games. Le jeu a ensuite contribué à attirer une large base d’utilisateurs, et les chiffres d’audience mis en avant au fil du temps soulignent l’ampleur de la pratique à grande échelle.

    Des productions en cours, une émission à construire autour du jeu

    Les épisodes seraient en cours de tournage à l’été, et NBC rechercherait des participants pour constituer le casting. Le défi sera de traduire l’essence du jeu — résoudre une grille de lettres en un nombre limité d’essais — dans un format télévisé rythmé, compréhensible pour le public qui ne connaît pas nécessairement l’original.

    Pour les curieux qui souhaitent retrouver l’ambiance des mots et des énigmes, certains se tournent aussi vers des jeux de lettres analogues. Par exemple, un jeu de société basé sur les mots peut offrir une alternative conviviale à la maison, sans attendre la diffusion de l’émission. Dans la même veine, un puzzle orienté casse-tête de lettres permet de prolonger l’envie de déduction et de vocabulaire.

    Reste à voir comment Wordle sera adapté pour la télévision, et si l’approche « familiale » parviendra à conserver la logique qui a fait le succès du jeu sur mobile. Une chose est claire : le passage au format TV transforme un phénomène internet en produit média à part entière, avec l’objectif de toucher un public plus large.