Catégorie : Technologie

  • Comment les modèles d’IA exploitent les données crypto en temps réel pour analyser le comportement du marché

    Comment les modèles d’IA exploitent les données crypto en temps réel pour analyser le comportement du marché


    Les modèles d’intelligence artificielle s’appuient de plus en plus sur des données actualisées en continu pour comprendre le comportement des marchés. Dans les cryptomonnaies, où les cours et volumes évoluent sans interruption, la donnée n’est plus un simple point de comparaison : elle ressemble davantage à un flux. L’enjeu n’est donc pas seulement d’analyser des tendances, mais de suivre des signaux qui changent en permanence, et d’en tirer des interprétations suffisamment fiables pour éclairer la lecture du marché.

    Un flux de données plutôt qu’un jeu figé

    Dans de nombreux domaines, les données sont collectées, nettoyées puis réutilisées sur une période déterminée. À l’inverse, dans la finance et particulièrement dans les cryptomonnaies, les entrées arrivent sans pause. Les systèmes doivent alors traiter l’information au fil de l’eau, en intégrant les variations au moment où elles se produisent. Un prix comme celui du BNB n’est plus seulement une valeur isolée : il devient un élément d’un flux, porteur d’un contexte dynamique.

    Cette approche est utile lorsque l’objectif consiste à repérer des changements plutôt que de s’en remettre à des hypothèses stables. Dans certains cas, de faibles déplacements peuvent suffire à faire évoluer une lecture du marché. En pratique, la difficulté tient souvent moins à la disponibilité de la donnée qu’à sa capacité à être traitée avec rapidité, notamment quand plusieurs sources doivent être combinées.

    Des signaux difficiles à interpréter dans un marché non linéaire

    Les comportements de marché ne suivent pas toujours des trajectoires régulières. Les variations de prix peuvent être irrégulières, et les liens entre causes et effets se brouillent. Dans cet environnement, un modèle ne se contente pas d’identifier un signal unique : il doit comprendre comment plusieurs indicateurs interagissent, même lorsque leurs relations se modifient.

    Par ailleurs, certains acteurs de marché peuvent amplifier des mouvements sans qu’ils conduisent forcément à une stabilisation rapide. Résultat : l’interprétation à court terme peut devenir plus instable, car les patterns observés peuvent ne pas se répéter de manière strictement identique d’une période à l’autre.

    Le poids des données et les biais potentiels

    La façon dont la donnée est distribuée influence aussi le comportement des modèles. Tous les actifs ne génèrent pas la même fréquence d’informations, ni la même densité d’observations. Cette réalité se retrouve dans la construction des jeux de données et, par conséquent, dans la manière dont certains signaux dominent le modèle.

    À titre d’illustration, la place du Bitcoin dans l’ensemble du marché tend à être élevée, tandis que les altcoins plus éloignés du sommet de la hiérarchie peuvent contribuer de façon plus limitée. Cela n’exclut pas leur prise en compte, mais leurs signaux peuvent être moins constants, ce qui complique leur utilisation dans des systèmes qui exigent des mises à jour régulières. Sans traitement spécifique, le modèle peut reproduire un biais : il apprend principalement à partir de ce qui apparaît le plus souvent dans les données.

    Des exigences croissantes en matière d’infrastructure et de cohérence

    À mesure que ces systèmes se généralisent, l’infrastructure devient un facteur clé. L’enjeu n’est pas seulement de collecter des flux, mais de garantir leur cohérence sur la durée : qualité des données, continuité, stabilité des pipelines de traitement et capacité à produire des résultats compréhensibles.

    Dans un contexte où des acteurs institutionnels renforcent leur présence, les attentes se déplacent vers des standards plus stricts en matière de conformité, de gouvernance et de gestion des risques. Concrètement, cela signifie que des systèmes qui fonctionnent en continu doivent être robustes et que leurs outputs doivent pouvoir être expliqués, au-delà de la seule performance du modèle.

    Des interprétations qui se rapprochent d’usages concrets

    Les données de marché en temps réel ne servent pas uniquement à produire des analyses ponctuelles. Elles alimentent de plus en plus des systèmes fonctionnant en continu : surveillance, détection de changements, ou identification de ruptures de régime. Dans de nombreux cas, l’IA reste surtout un outil d’interprétation, située entre la donnée brute et une décision opérationnelle.

    Cette dynamique se reflète aussi dans l’augmentation de certaines formes d’activité liées aux usages numériques (par exemple, les volumes associés à des cartes de paiement crypto), même si leur taille reste encore modeste par rapport aux paiements traditionnels. À mesure que ces passerelles entre l’écosystème crypto et des usages plus “réels” se développent, la donnée en temps réel peut devenir un élément plus directement connecté à l’activité observée.

    En définitive, le temps réel n’apporte pas une compréhension automatique du marché. Il fournit une matière première plus vivante, et le rôle de l’IA consiste à en extraire une lecture cohérente malgré l’instabilité des comportements. À mesure que les modèles évoluent, la manière d’exploiter ces flux, par exemple autour de la valeur d’un terminal orienté données de trading, peut également s’affiner pour mieux répondre à la variabilité du marché.

  • Robot humanoïde de Sony AI remporte la course de Pékin en battant les joueurs

    Robot humanoïde de Sony AI remporte la course de Pékin en battant les joueurs


    Deux avancées marquantes illustrent le passage de l’IA du virtuel vers le monde réel. D’un côté, le robot de table automatique Ace, développé par Sony AI, a disputé des matchs réglementés contre des pongistes de haut niveau. De l’autre, des robots humanoïdes ont été testés lors d’une course longue distance à Pékin, avec des performances chronométrées en conditions réelles.

    Un robot de ping-pong qui s’impose face à des joueurs d’élite

    Selon des informations relayées par la presse, Ace a participé à des rencontres officielles de tennis de table, en respectant les règles de la Fédération internationale de tennis de table (ITTF) et sous le regard d’arbitres autorisés. Le robot a été conçu pour prendre des décisions très rapidement et contrôler finement ses mouvements, afin d’exécuter des coups dans un environnement sportif où chaque point se joue à un rythme élevé.

    Les essais menés sur une période donnée indiquent qu’Ace a remporté une partie des matchs face à des joueurs d’élite, tout en s’inclinant dans d’autres confrontations contre des adversaires au niveau professionnel. Sony AI a aussi fait état d’autres rencontres ultérieures, dont certaines auraient été remportées face à des pongistes professionnels.

    Perception en temps réel et stratégie apprenante

    Le défi technique de la discipline tient à la vitesse et à la variabilité de la balle : trajectoires qui changent, effets (spin) complexes et détection visuelle sollicitée au maximum. D’après l’équipe du projet, Ace s’appuie sur plusieurs systèmes de caméra et de vision pour suivre le mouvement et l’effet de la balle, puis calculer la réponse motrice dans des délais très courts.

    Sur le plan mécanique, la raquette est pilotée par plusieurs articulations, réparties entre le positionnement, l’orientation et la gestion de la force ou de la vitesse des coups. L’objectif est d’atteindre un niveau de précision jugé compatible avec un jeu de compétition.

    Un autre élément clé concerne l’apprentissage : contrairement à des approches reposant sur la démonstration humaine, Ace aurait été entraîné dans un environnement de simulation. Cette méthode viserait à permettre l’émergence de stratégies adaptées au comportement réel de la balle, avec des styles de jeu qui peuvent différer de ceux observés chez les joueurs humains.

    Des joueurs ayant affronté Ace ont également souligné un point pratique : la difficulté à anticiper les réponses du robot, faute d’indices visibles comparables à ceux qu’offrent les réactions d’un humain pendant un échange. Ils ont toutefois reconnu une capacité notable à gérer certains effets, tout en évoquant une plus grande prédictibilité sur des situations plus simples.

    Pour s’initier au tennis de table avec un matériel fiable, certains utilisateurs choisissent des ensembles prêts à jouer comme des accessoires d’entraînement pour le ping-pong ou des équipements axés sur la précision et le contrôle. Le point commun avec ces technologies, c’est la recherche d’une meilleure répétabilité dans l’exécution.

    Des robots humanoïdes testés sur un semi-marathon à Pékin

    À l’occasion du 2026 Beijing E-Town Humanoid Robot Half Marathon, des robots humanoïdes ont parcouru un itinéraire de 21 kilomètres à Pékin. L’événement réunissait plus d’une centaine de robots, dans un cadre conçu pour évaluer leurs capacités sur une durée longue et dans des conditions à grande échelle. Les participants humains prenaient part à la course, mais sur des parcours séparés.

    Un robot nommé Lightning, développé par Honor, aurait terminé la course en un peu plus de cinquante minutes. Le système a, d’après les organisateurs, poursuivi sa progression après une collision avec une barrière, avant de franchir la ligne d’arrivée en première position. D’autres robots de la même entreprise auraient également obtenu des places au classement.

    Les organisateurs ont indiqué que le but de l’épreuve était d’évaluer la navigation autonome et la robustesse des machines en conditions réelles, plutôt que dans un environnement entièrement contrôlé. Une précédente édition avait déjà montré des progrès, mais avec des temps jugés nettement plus lents pour les meilleurs systèmes.

    Dans une logique comparable d’ingénierie de précision, les consommateurs qui cherchent du matériel utile à l’entraînement ou à l’observation des mouvements peuvent aussi se tourner vers des outils d’analyse et d’assistance, par exemple des caméras de suivi pour le sport. Même si l’usage n’est pas le même, la démarche repose sur la qualité de la perception et de la mesure.

    Ce que ces résultats suggèrent pour l’IA “dans le réel”

    Pris ensemble, ces deux événements montrent un même mouvement : l’IA est de plus en plus testée sur des tâches où la réalité impose des contraintes immédiates—temps de réaction, précision motrice, perception en présence d’incertitudes. En ping-pong, la difficulté réside dans la balle, les effets et le timing. En course, elle se situe dans la locomotion, la navigation et la tenue de performance sur la durée.

    Reste une différence majeure entre les démonstrations et une généralisation à grande échelle : la robustesse face aux situations nouvelles, l’adaptabilité en match et, pour les robots humanoïdes, la capacité à gérer les imprévus sans dégrader la sécurité ou l’autonomie. Les prochaines itérations devront donc être jugées sur la régularité, pas seulement sur quelques performances isolées.

  • Soldat américain arrêté pour avoir prétendument réalisé plus de 400 000 $ sur Polymarket grâce à des informations classifiées liées à Maduro

    Soldat américain arrêté pour avoir prétendument réalisé plus de 400 000 $ sur Polymarket grâce à des informations classifiées liées à Maduro


    Un militaire américain a été arrêté après des accusations liées à des paris sur une plateforme de “prédiction” en utilisant des informations confidentielles dont il aurait eu connaissance dans le cadre de ses fonctions. Selon le département de la Justice, un sergent-chef des forces spéciales de l’US Army, Gannon Ken Van Dyke, aurait réalisé des gains importants en pariant sur l’issue d’opérations impliquant le dirigeant vénézuélien Nicolás Maduro.

    Des paris en lien avec une opération contre Nicolás Maduro

    Les autorités indiquent que Van Dyke aurait créé un compte sur Polymarket à la fin décembre 2025, puis multiplié, sur une période allant du 27 décembre au 2 janvier, des mises liées à des scénarios mentionnant directement Nicolás Maduro. Parmi les paris visés figureraient des questions portant sur des délais de sortie de fonctions, ainsi que des hypothèses sur une éventuelle intervention américaine.

    D’après l’accusation, le soldat aurait pris des positions “Yes” sur plusieurs options, avant que l’opération militaire aboutisse à la capture de Nicolás Maduro et de sa femme, le 3 janvier. Les enquêteurs affirment que l’intéressé aurait réalisé environ 409 881 dollars de bénéfices.

    Des gains rapidement convertis et des tentatives de dissimulation

    Toujours selon le ministère public, les mises initiales se seraient élevées à un peu plus de 33 000 dollars. Les profits attendus et réalisés auraient, eux, dépassé largement ce montant, aboutissant à un retour financier jugé disproportionné au regard des informations disponibles publiquement.

    Les autorités soutiennent aussi que Van Dyke aurait retiré ses gains le jour même de la capture, puis transféré l’argent vers un “coffre-fort” crypto à l’étranger, avant de réinjecter les fonds dans un nouveau compte de courtage en ligne.

    Après la publication de reportages évoquant la possibilité de paris “en avance” sur des événements, il aurait également demandé à Polymarket la suppression de son compte, en invoquant faussement avoir perdu l’accès à l’adresse e-mail utilisée. Les enquêteurs indiquent par ailleurs qu’il aurait modifié l’adresse associée à son compte crypto pour la remplacer par une adresse n’ayant pas de lien apparent avec son identité.

    Des chefs d’accusation pouvant entraîner de lourdes peines

    Le dossier comporte plusieurs chefs d’accusation. Van Dyke serait notamment poursuivi pour des violations de la réglementation relative aux marchés de matières premières (“Commodity Exchange Act”), avec trois charges assorties chacune d’une peine maximale de 10 ans de prison.

    Il ferait également l’objet :

    • d’une accusation de fraude par câbles (“wire fraud”), passible jusqu’à 20 ans de prison ;
    • d’une accusation de transactions financières illégales (“unlawful monetary transaction”), pouvant aller jusqu’à 10 ans.

    Un nouvel épisode dans les inquiétudes autour des “prediction markets”

    Les marchés de prédiction, censés refléter l’opinion collective via des parités de marché, sont régulièrement confrontés à la question des informations privilégiées. La logique est simple : si des acteurs disposent d’éléments non publics, ils peuvent fausser le mécanisme en pariant avant que l’information ne soit connue du grand public.

    Dans ce contexte, l’affaire Van Dyke s’inscrit dans une série de controverses. Des incidents antérieurs ont déjà conduit des plateformes à prendre des mesures à l’encontre d’utilisateurs ou de candidats, en invoquant des comportements assimilés à du “trading” fondé sur des informations internes.

    Au-delà du cas particulier, ce type d’affaires rappelle l’importance, pour les plateformes et les régulateurs, de renforcer les contrôles et la traçabilité, notamment sur les circuits de paiement et l’usage des crypto-actifs.

    Pour les utilisateurs qui souhaitent mieux sécuriser leurs pratiques numériques, certains se tournent vers des solutions matérielles de protection comme un portefeuille matériel type Ledger, afin de réduire les risques liés à la gestion d’actifs et à l’accès non autorisé aux comptes.

    Enfin, dans un univers où l’ingénierie sociale peut jouer un rôle, l’adoption d’outils d’authentification renforcée, par exemple via un clés de sécurité USB pour la double authentification, est souvent considérée comme un complément utile à la sécurité en ligne.

  • NVIDIA et Google réduisent les coûts de l’inférence IA grâce à leur infrastructure

    NVIDIA et Google réduisent les coûts de l’inférence IA grâce à leur infrastructure


    À l’occasion de Google Cloud Next, Google et NVIDIA ont présenté une feuille de route visant à réduire le coût de l’inférence, c’est-à-dire l’exécution de modèles d’intelligence artificielle en conditions réelles, à grande échelle. L’enjeu est de taille : à mesure que l’adoption des assistants, agents et services basés sur l’IA s’intensifie, la facture liée au déploiement devient aussi déterminante que celle de l’entraînement.

    Des instances A5X pensées pour abaisser le coût par token

    Les annonces mettent en avant les nouvelles instances bare-metal A5X, conçues pour s’appuyer sur des systèmes NVIDIA Vera Rubin NVL72 à l’échelle des racks. Selon les deux entreprises, un co-développement matériel et logiciel vise une baisse pouvant aller jusqu’à dix fois du coût d’inférence par token par rapport aux générations précédentes, tout en augmentant fortement le débit de traitement.

    Ce type d’amélioration repose sur des optimisations à la fois côté puces, interconnexions et pile logicielle. L’objectif affiché est de mieux valoriser l’investissement matériel sur des charges utiles où l’inférence se répète, souvent avec des exigences de latence et de disponibilité élevées.

    Un défi de bande passante à résoudre pour passer à grande échelle

    À grande échelle, faire travailler des milliers de processeurs en parallèle impose une communication rapide et stable entre les nœuds. Les instances A5X s’appuient sur un couplage matériel/logiciel combinant des cartes NVIDIA ConnectX-9 SuperNIC et la technologie réseau Virgo de Google.

    D’après les présentations, la configuration peut atteindre jusqu’à 80 000 GPU dans un cluster sur un site, et jusqu’à 960 000 GPU dans un déploiement multi-sites. À ce niveau, la gestion opérationnelle devient un facteur clé : il faut synchroniser finement l’acheminement des données pour éviter que des ressources de calcul restent inactives.

    Gouvernance des données et chiffrement confidentiel

    Au-delà des performances, les contraintes de conformité freinent souvent les projets IA en entreprise, notamment dans les secteurs fortement régulés comme la finance ou la santé. Les questions de souveraineté des données et de protection des informations sensibles sont alors centrales.

    Google a indiqué que des modèles Gemini fonctionnant sur des GPU NVIDIA Blackwell et Blackwell Ultra sont proposés en aperçu sur Google Distributed Cloud. Le principe consiste à permettre l’exécution de modèles dans des environnements contrôlés, en gardant les modèles et les données sensibles sous contrôle des organisations.

    Ces déploiements s’appuient aussi sur le chiffrement au niveau matériel via NVIDIA Confidential Computing. L’idée est d’empêcher des entités non autorisées, y compris dans certaines configurations liées à l’infrastructure cloud, d’accéder aux données de prompts ou aux éléments utilisés pour l’affinage.

    Google prévoit également une offre de machines virtuelles confidentielles (Confidential G4 VMs) équipées de GPU NVIDIA RTX PRO 6000 Blackwell, visant à apporter des protections cryptographiques dans des environnements multi-tenant. L’annonce souligne qu’il s’agit d’une première déclinaison de ce type pour les GPU Blackwell côté cloud.

    Réduire la friction logicielle des agents IA

    La mise au point d’agents IA, capables d’enchaîner des actions et d’interagir avec des interfaces applicatives, implique davantage que l’entraînement d’un modèle. Elle nécessite aussi l’orchestration de systèmes multi-étapes : connexion aux API, synchronisation de bases vectorielles et maîtrise des erreurs ou hallucinations lors de l’exécution.

    NVIDIA a présenté Nemotron 3 Super disponible via la Gemini Enterprise Agent Platform, destinée à aider au déploiement de modèles de raisonnement et multimodaux pour des tâches agentiques. Google Cloud et NVIDIA indiquent avoir optimisé leur plateforme pour s’adapter à plusieurs familles de modèles, afin de faciliter la conception de systèmes qui “raisonnent, planifient et agissent”.

    Enfin, la montée en charge du training, notamment dans des cycles d’apprentissage par renforcement, peut générer un surcoût d’ingénierie et de gestion. Pour y répondre, Google et NVIDIA ont évoqué des Managed Training Clusters intégrant une API de renforcement apprise via NVIDIA NeMo RL, avec automatisation du dimensionnement du cluster, de la reprise en cas d’incident et de l’exécution des jobs.

    Du calcul accéléré à la simulation “physique”

    Les applications industrielles posent d’autres exigences : relier des jumeaux numériques à des environnements physiques demande des simulations, des modèles précis et des formats de données compatibles avec des systèmes existants. Google et NVIDIA ont indiqué que leurs bibliothèques et briques d’infrastructure orientées “physical AI” peuvent servir de base à la simulation et à l’automatisation de scénarios industriels.

    Les annonces mentionnent l’utilisation de bibliothèques Omniverse et du framework Isaac Sim (notamment via une place de marché cloud) pour faciliter la création de jumeaux numériques physiquement plausibles et entraîner des pipelines de robotique avant le déploiement en conditions réelles.

    Pour faire le lien vers des agents capables de comprendre et naviguer dans des environnements, l’écosystème combine aussi des microservices NVIDIA NIM et des outils comme Vertex AI et Google Kubernetes Engine, afin de passer de la conception assistée par ordinateur vers des simulations industrielles exploitables.

    Ce que cela change concrètement pour le secteur

    La réduction du coût de l’inférence n’est pas qu’un chiffre : elle peut influencer la manière dont les organisations dimensionnent leurs services, la fréquence d’exécution et le choix des modèles. Les annonces décrivent un portefeuille d’options allant de configurations “racks” complètes jusqu’à des instances plus fractionnées, permettant d’ajuster plus finement les ressources selon les besoins.

    En pratique, cela peut aider des déploiements aux profils variés : traitements mixtes (raisonnement, extraction, traitement de données), déploiements d’agents en production, ou encore usages nécessitant de grandes quantités de calcul répétées.

    Pour les entreprises qui évaluent ce type de transition, l’infrastructure interne joue souvent un rôle dans la rapidité de qualification. À titre indicatif, un SSD NVMe performant peut contribuer à réduire des temps de chargement dans des pipelines de données et d’expérimentation, tandis qu’un switch réseau 25GbE managé peut aider à améliorer la fiabilité des flux internes lors de tests et d’orchestration à l’échelle.

  • Les visiteurs de cette station spatiale privée ne porteront pas de shorts ni de t-shirts

    Les visiteurs de cette station spatiale privée ne porteront pas de shorts ni de t-shirts


    À l’occasion des présentations autour de sa station spatiale Haven-1, la société Vast détaille le “flight suit” destiné aux membres d’équipage. L’objectif affiché est simple : un vêtement conçu pour l’apesanteur, la vie à bord et les gestes techniques, tout en restant adaptable à chaque participant.

    Un “flight suit” pensé pour l’apesanteur

    Le Vast Astronaut Flight Suit est développé avec l’optique de répondre aux besoins opérationnels de l’équipage, aussi bien lors des phases d’entraînement sur Terre qu’au quotidien en orbite. Le vêtement peut être porté en une ou deux pièces : le haut se fixe ou se détache du bas grâce à une fermeture zippée, permettant des ajustements rapides.

    Pour favoriser le confort et la mobilité en microgravité, la combinaison intègre des aérations dorsales ainsi que des empiècements aux épaules. Elle est également dotée de poches et de fixations type Velcro afin de garder les outils accessibles pendant les tâches à bord.

    Des détails d’usage et une personnalisation discrète

    Le design reste sobre avec une couleur blanche et une coupe uniforme, mais le vêtement prévoit des éléments de personnalisation. Chaque membre d’équipage aura son propre écusson lié à la mission, ainsi qu’un emplacement pour sa carte d’accès, selon les modalités décrites par l’entreprise.

    Dans les espaces exigus d’une station orbitale, l’enjeu est de limiter les contraintes de mouvement et de maintenir l’équipement à portée de main. Selon Megan McArthur, conseillère de Vast, l’apesanteur impose des déplacements constants et des positions corporelles différentes de celles rencontrées sur Terre.

    Une montre certifiée pour les conditions de vol

    En complément de la tenue, Vast prévoit aussi une montre spécifique pour l’équipage : la Pilot’s Venturer Vertical Drive. Ce modèle, développé en partenariat avec IWC Schaffhausen, vise à répondre aux contraintes du vol habité, notamment le remplacement de la couronne par un dispositif plus compatible avec le port de gants, ainsi que des exigences de résistance aux vibrations et aux variations de pression.

    IWC propose ce modèle à un prix annoncé de 28 200 dollars.

    Pour les curieux de matériel technique, on peut aussi trouver des accessoires de rangement pratiques pour organiser ses petits outils et chargeurs au quotidien, par exemple un kit de pochettes de rangement pour accessoires électroniques, utile lors de déplacements ou pour préparer un sac technique.

    Dans un registre plus “outillage”, un kit d’outils de précision pour petits travaux peut également être pertinent pour ceux qui cherchent à conserver des instruments essentiels à portée de main, même en dehors d’un contexte spatial.

  • Claude peut désormais se connecter à des applications de style de vie telles que Spotify, Instacart et AllTrails

    Claude peut désormais se connecter à des applications de style de vie telles que Spotify, Instacart et AllTrails


    Anthropic élargit les connexions disponibles pour Claude, son assistant conversationnel. La plateforme étend désormais son répertoire de services tiers afin de relier, directement depuis une discussion, davantage d’applications du quotidien à certains usages comme la musique, la planification, la restauration ou encore la réservation.

    Des connexions plus nombreuses, orientées vers la vie quotidienne

    Jusqu’ici, l’intégration de services tiers par Anthropic ciblait davantage des contextes “éducationnels”. Désormais, Claude peut aussi s’appuyer sur des applications très utilisées par le grand public. Parmi les services annoncés figurent notamment AllTrails, Audible, Booking.com, Instacart, Intuit Credit Karma, Intuit TurboTax, Resy, Spotify, StubHub, Taskrabbit, Thumbtack, TripAdvisor, Uber, Uber Eats et Viator.

    L’objectif est de rapprocher l’outil des besoins concrets des utilisateurs. L’idée est qu’un chatbot connecté puisse contribuer à des tâches plus “complètes”, enchaînant par exemple des éléments liés à la recherche d’activités et à l’exécution d’actions pratiques via des apps déjà présentes.

    Une logique d’enchaînement d’actions pendant la conversation

    Anthropic souligne aussi un changement dans la manière dont les applications sont proposées. Plutôt que d’obliger l’utilisateur à naviguer entre plusieurs programmes, Claude devrait faire apparaître les services pertinents de façon contextuelle au sein même de la conversation. Dans l’exemple donné, l’assistant pourrait aider à organiser une randonnée avec AllTrails, puis proposer une liste de lecture Spotify adaptée à la durée du trajet.

    En pratique, ce fonctionnement vise à réduire la friction entre la demande et l’exécution, tout en gardant la discussion comme point central. Comme pour la plupart des fonctionnalités d’action assistée par IA, Claude est censé demander validation avant toute opération réelle impliquant des achats, des réservations ou d’autres actions sensibles.

    Vers davantage de services ajoutés à terme

    Anthropic indique que d’autres intégrations seront ajoutées ultérieurement. L’évolution s’inscrit dans une tendance plus large : rendre les assistants capables de s’appuyer sur l’écosystème d’applications existant chez les utilisateurs, afin d’automatiser une partie des tâches tout en conservant un contrôle humain.

    Pour les usages liés à la musique et aux playlists, certains utilisateurs continuent de privilégier un service comme Spotify, par exemple via Spotify Premium pour l’accès à des fonctions plus complètes selon les appareils. Côté voyages et organisation, un guide ou accessoire de randonnée peut aussi accompagner ce type de planification, même si l’app reste le support principal de l’itinéraire.

    • Intégrations élargies à des services grand public (voyage, courses, musique, mobilité, réservation).
    • Proposition contextuelle des apps dans la conversation, sans bascule manuelle entre applications.
    • Validation attendue de l’utilisateur avant les actions engageantes (achats, réservations, etc.).
  • Découvrez Noscroll, un bot IA qui s’occupe du doomscrolling à votre place

    Découvrez Noscroll, un bot IA qui s’occupe du doomscrolling à votre place


    Externaliser le « doomscrolling » : c’est l’idée portée par Noscroll, un bot d’IA conçu pour parcourir les fils et sources d’actualité d’un utilisateur, puis lui envoyer par SMS des informations jugées utiles. L’ambition est simple : réduire le temps passé à scroller en continu, tout en conservant l’accès aux sujets suivis.

    Le service s’appuie sur une promesse de tri : plutôt que de recevoir un flux permanent, l’utilisateur reçoit des signaux ponctuels, accompagnés de résumés produits par l’IA.

    Un bot qui sélectionne, plutôt qu’un flux qui noie

    Le fonctionnement repose sur un principe de lecture assistée. Une fois connecté, le système peut prendre en compte les préférences de l’utilisateur (likes, favoris, comptes et publications suivies) afin d’orienter sa sélection. L’IA permet ensuite de préciser, en langage naturel, ce que l’utilisateur souhaite suivre — et ce qu’il veut éviter.

    Concrètement, le bot génère une première sélection, sous forme de « digest » envoyé par SMS. Les messages contiennent une liste de liens, ainsi qu’un résumé bref rédigé par l’IA. En cas d’intérêt, l’utilisateur peut ouvrir les contenus dans son navigateur pour lire plus en détail.

    Des sources variées au-delà des réseaux

    Même si la demande initiale concerne les réseaux sociaux, Noscroll ne s’appuie pas uniquement sur un fil. Le bot peut, selon l’information communiquée, agréger des contenus provenant de plusieurs types de sites : médias d’actualité, blogs, Reddit, Hacker News, Substack, ou encore des publications plus spécialisées comme des articles de recherche. L’utilisateur peut aussi recommander des sources précises à surveiller.

    L’objectif est d’éviter la dépendance à un seul canal et de couvrir plus largement les informations pertinentes pour un centre d’intérêt donné.

    Un rythme adaptable et des alertes « au bon moment »

    Le service vise un envoi à une fréquence choisie : une mise à jour hebdomadaire pour un usage occasionnel, ou plusieurs messages par jour pour les utilisateurs qui veulent un suivi plus rapproché. Le bot peut aussi repérer des événements décrits comme « breaking news » et envoyer une alerte dès que l’information est jugée importante.

    À mesure que l’usage se poursuit, l’IA est censée affiner la sélection à partir des interactions et préférences de l’utilisateur, afin de mieux refléter ses goûts et ses centres d’intérêt.

    Cas d’usage : information spécialisée, mais pas seulement

    Noscroll cible en priorité les personnes qui doivent rester informées en permanence : professionnels de la tech, veille sur un secteur, ou suivi d’actualités locales. Toutefois, le service peut aussi s’étendre à des centres d’intérêt très variés, des contenus culturels aux sujets plus personnels, en passant par des lettres d’information non lues ou les publications d’un cercle de contacts.

    Dans certains cas, l’outil est décrit comme un « second délégué » pour suivre un « beat » précis, sans y consacrer tout son temps.

    Prix, essai et intégration via SMS

    Le coût annoncé est de 9,99 $ par mois. Une phase d’essai est mise en avant, avec la réception d’un digest exemple gratuitement puis une période d’utilisation de sept jours, avec possibilité d’annuler à tout moment. Le service est utilisable via un agent d’IA contactable par SMS, qui dirige ensuite l’utilisateur vers une connexion permettant d’associer le compte et les préférences.

    Sur le plan pratique, Noscroll permet également d’échanger avec l’IA : l’utilisateur peut poser des questions relatives aux contenus consultés, comme on le ferait avec d’autres systèmes de chat. D’autres canaux de discussion pourraient être ajoutés ultérieurement.

    Ce que cela change, et les points à surveiller

    En théorie, le principal intérêt de Noscroll est de diminuer la « charge cognitive » liée au scroll continu en remplaçant un flux infini par une sélection plus courte. Le modèle du digest et le résumé automatisé peuvent aider à trier plus vite, notamment quand les sujets sont nombreux.

    Reste que, comme tout système de recommandation et de synthèse, la qualité dépendra des préférences de l’utilisateur et des critères de sélection de l’IA. La pertinence des résumés, le respect des exclusions (« ce que je ne veux pas voir ») et la capacité à capter les informations réellement importantes seront des éléments déterminants pour juger le service sur la durée.

    Deux idées d’équipement pour lire et comparer

    Pour exploiter les digests et ouvrir rapidement les liens, beaucoup d’utilisateurs privilégient un écran confortable et une bonne autonomie. Par exemple, un tablette Android de 10 pouces peut faciliter la lecture des articles et l’accès aux résumés. Pour ceux qui veulent aussi gérer l’ensemble des notifications sans multiplier les manipulations, un smartphone Android déverrouillé reste souvent le plus simple à utiliser au quotidien avec des alertes SMS.

  • La start-up à un milliard de dollars avec une approche innovante de l’IA

    La start-up à un milliard de dollars avec une approche innovante de l’IA


    Une jeune pousse soutenue à hauteur d’un milliard de dollars illustre la persistance de l’intérêt des investisseurs pour l’intelligence artificielle. Mais sa position va à contre-courant d’une partie des tendances actuelles : Yann LeCun, chercheur de premier plan, estime que les grands modèles de langage ne constituent pas la voie la plus fiable pour obtenir des résultats durables et utiles à long terme.

    Un pari sur des systèmes modulaires plutôt que sur les LLM

    LeCun a quitté fin de l’année précédente son poste de responsable scientifique de l’IA chez Meta et a lancé Advanced Machine Intelligence Labs (AMI Labs). L’entreprise annonce vouloir rester centrée sur la recherche, sans promesse de produit commercial à court terme, tout en proposant une approche différente : des agents composés de modules spécialisés, entraînés et utilisés pour des tâches précises.

    Dans cette vision, l’intelligence artificielle ne se résume pas à un modèle généraliste entraîné sur de vastes corpus textuels. Elle combine plutôt plusieurs briques fonctionnelles, chacune dédiée à un aspect du raisonnement ou de la perception, selon le contexte d’usage.

    Les briques envisagées pour l’IA

    Le système proposé par AMI Labs s’articule autour d’éléments complémentaires :

    • Un modèle du monde adapté au domaine (ou au rôle) dans lequel l’IA évolue.
    • Un acteur qui propose des actions ou des étapes suivantes, inspiré de l’apprentissage par renforcement.
    • Un critique chargé d’évaluer les options envisagées à partir du modèle du monde et d’une mémoire à court terme, en s’appuyant aussi sur des règles prédéfinies.
    • Un système de perception spécifique au besoin : vidéo, audio, texte, images, avec par exemple des méthodes de vision par apprentissage profond.
    • Une mémoire à court terme pour conserver temporairement des informations.
    • Un configurateur qui coordonne les échanges entre les modules.

    Des données et des objectifs plus ciblés

    Contrairement aux grands modèles de langage, souvent entraînés sur une source unique et généraliste (notamment le texte extrait du web), chaque version de l’IA chez AMI Labs recevrait des données pertinentes et orientées vers son environnement. L’importance relative de chaque module pourrait varier selon les contraintes : par exemple, un système manipulant des informations sensibles donnerait davantage de poids au module d’évaluation, tandis qu’un système réactif aux événements du monde réel prioriserait la perception.

    Quel enjeu pour le secteur de l’IA ?

    Au-delà de la technique, l’enjeu est financier. Ces dernières années, l’amélioration des LLM a souvent entraîné une hausse des coûts de calcul, liée à la taille des modèles et aux méthodes itératives nécessaires pour affiner la qualité des réponses. Dans ce contexte, seuls de très grands acteurs peuvent supporter durablement des cycles d’entraînement et d’inférence coûteux.

    Le modèle défendu par AMI Labs repose sur l’idée que des modules plus restreints, spécialisés et entraînés pour un usage donné, pourraient exiger beaucoup moins de puissance GPU. L’entreprise envisage notamment des architectures où les modèles spécialisés pourraient se contenter d’environ quelques centaines de millions de paramètres, avec la perspective de coûts d’exécution plus bas. À terme, cela ouvrirait la voie à une IA potentiellement plus accessible et déployable localement, voire sur des appareils.

    Un changement de logique, mais pas forcément une rupture immédiate

    Les objectifs affichés s’inscrivent dans la continuité des progrès déjà observés dans d’autres systèmes d’apprentissage, capables d’apprendre des stratégies pour des environnements fermés comme certains jeux. Le débat porte toutefois sur la capacité de cette approche à atteindre la même polyvalence que les LLM, tout en tenant ses promesses de précision et de maîtrise des coûts.

    En pratique, AMI Labs semble proposer une alternative plus pragmatique : au lieu d’attendre des améliorations substantielles d’un modèle généraliste, construire des agents dont le fonctionnement est aligné sur des tâches spécifiques. Si la démarche produit des résultats solides, elle pourrait repositionner les attentes du marché sur ce que l’IA devrait être réellement capable de faire — et à quel prix.

    Pour se faire une idée des environnements de travail IA

    Pour les équipes qui testent des approches modulaires ou travaillent sur des pipelines de traitement multimodal, un ordinateur compact mais performant peut faciliter les expérimentations. Par exemple, un mini PC orienté calcul peut être utile pour lancer des prototypes légers et itérer plus vite sur les composants.

    Côté infrastructure, la création et l’entraînement de modèles plus petits restent souvent gourmands en stockage pour les jeux de données et les checkpoints ; un SSD NVMe de grande capacité peut aider à conserver rapidement les ressources nécessaires aux cycles d’expérimentation.

  • Des chercheurs dénoncent des abus d’accès aux opérateurs télécoms pour localiser des personnes

    Des chercheurs dénoncent des abus d’accès aux opérateurs télécoms pour localiser des personnes


    Des chercheurs en cybersécurité affirment avoir identifié deux campagnes d’espionnage distinctes qui exploitent des failles connues de l’infrastructure télécom mondiale afin de localiser des personnes. Selon leurs conclusions, ces affaires ne représenteraient qu’un aperçu de pratiques plus largement répandues visant à obtenir un accès opérationnel auprès d’acteurs capables de “se glisser” dans les réseaux mobiles.

    Ces éléments proviennent d’un rapport publié par Citizen Lab, une organisation de défense des droits numériques, qui détaille deux opérations nouvellement observées. Les chercheurs y décrivent des vendeurs de surveillance utilisant des sociétés-écrans se présentant comme de “véritables” opérateurs cellulaires, afin de tirer parti de leurs privilèges d’accès et d’interroger des données de localisation liées aux numéros ciblés.

    SS7 et Diameter : des protocoles toujours exploités

    Le rapport souligne que des technologies utilisées depuis des années demeurent au centre de ces abus. L’une des pistes concerne le protocole SS7 (utilisé pour les réseaux 2G et 3G), réputé depuis longtemps pour ses lacunes : il ne proposerait pas de mécanismes d’authentification et de chiffrement suffisants. Cette situation faciliterait l’action d’opérateurs indélicats ou d’acteurs mal intentionnés capables d’accéder au routage de données au sein du système.

    Une seconde piste implique Diameter, conçu pour les réseaux 4G et 5G et présenté comme un successeur censé corriger certaines faiblesses du SS7. Toutefois, les chercheurs indiquent que les protections ne seraient pas toujours correctement déployées par tous les opérateurs, ouvrant la voie à des contournements. Dans certains cas, les attaques pourraient aussi “basculer” sur le SS7 lorsque les tentatives sur Diameter échouent.

    Dans les deux campagnes décrites, les enquêteurs estiment que l’accès à l’infrastructure de certains prestataires a servi de point d’entrée et de relais, permettant de mieux masquer l’origine des actions. L’objectif serait d’exploiter ces réseaux pour interroger des informations de localisation associées aux abonnés.

    Accès réutilisé à des fournisseurs télécom identifiés

    Les chercheurs notent un élément commun aux deux opérations : l’usage d’au moins trois fournisseurs télécom précis, décrits comme des “points d’entrée et de transit” dans l’écosystème de signalisation. Cette capacité d’intermédiation permettrait aux acteurs de surveillance de s’appuyer sur la légitimité apparente de l’infrastructure.

    Parmi les opérateurs cités, 019Mobile (Israël) serait apparu dans plusieurs tentatives. Tango Networks U.K. est également mentionné, avec des activités surveillées sur plusieurs années. Enfin, les chercheurs indiquent que Airtel Jersey (sur l’île de Jersey, désormais sous le contrôle de Sure) aurait aussi été impliqué dans la chaîne d’accès.

    Sure, dont le dirigeant a été interrogé, déclare ne pas louer d’accès à la signalisation pour localiser, suivre ou intercepter le contenu de communications, et affirme avoir mis en place des mesures de surveillance et de blocage. L’entreprise soutient également qu’en présence d’éléments crédibles de mauvaise utilisation, le service concerné peut être suspendu, voire résilié définitivement après vérification.

    Une seconde méthode basée sur des SMS détournés

    La première campagne décrirait une exploitation progressive : tentatives via SS7, puis recours à Diameter si nécessaire. La seconde campagne reposerait sur d’autres mécanismes.

    D’après Citizen Lab, un acteur de surveillance (non identifié dans le rapport) aurait envoyé un type particulier de SMS vers un cible “à fort profil”. Les chercheurs comparent cette approche à des attaques visant les cartes SIM, où des messages sont conçus pour déclencher des commandes internes sans que l’utilisateur n’en voie la trace.

    Le principe serait de transformer, pour la cible, le téléphone en dispositif permettant la récupération d’informations de localisation. La technique est rapprochée d’un mode d’attaque connu sous le nom de SIMjacker, décrit par des acteurs de la sécurité mobile dès 2019. Les enquêteurs précisent aussi que ce type d’attaque pourrait être plus difficile à détecter et qu’il semblerait être orienté vers des pays et des réseaux susceptibles d’être plus vulnérables.

    Une menace jugée plus large que ces deux cas

    Les chercheurs insistent sur le fait que ces deux campagnes ne constituent qu’un échantillon. Ils estiment qu’il existe potentiellement un volume bien plus important d’attaques dans le monde, mais que seules certaines opérations ont pu être observées et analysées dans le cadre de leurs investigations.

    Dans ce contexte, la question centrale reste celle de l’accès : comment des acteurs parviennent à obtenir des privilèges d’interconnexion ou de signalisation, puis à utiliser ces capacités pour interroger des données sensibles. Les révélations mettent aussi en lumière un enjeu récurrent pour les infrastructures télécom modernes : l’adoption de protections techniques ne garantit pas, à elle seule, une réduction du risque si la mise en œuvre varie selon les opérateurs.

    Sur le plan pratique, certains utilisateurs cherchent à limiter l’exposition de leur trafic. À titre d’exemples d’outils couramment envisagés, une solution VPN pour mobile peut contribuer à réduire certains risques liés à l’interception de données, sans toutefois empêcher une exploitation au niveau des réseaux télécom. De même, un antivirus ou application de sécurité mobile peut aider à détecter des comportements suspects sur l’appareil, même si les attaques visant l’infrastructure réseau sont généralement hors du contrôle direct de l’utilisateur.

  • L’essor fulgurant de l’app marché en Inde, tandis que les plateformes mondiales captent l’essentiel des gains

    L’essor fulgurant de l’app marché en Inde, tandis que les plateformes mondiales captent l’essentiel des gains


    Le marché indien des applications mobiles connaît une forte accélération, portée par des revenus issus des achats in-app en hausse. Toutefois, une part importante de ces gains profite aux plateformes internationales, au point de créer un déséquilibre notable entre la dynamique locale et la captation des recettes.

    Des revenus in-app en forte hausse

    Au premier trimestre, les achats intégrés ont franchi le cap des 300 millions de dollars, en progression de 33 % sur un an. La montée en puissance provient principalement des applications hors jeux, qui ont généré plus de 200 millions de dollars de revenus in-app, soit une hausse annuelle de 44 % et une part croissante dans l’ensemble des dépenses.

    Les catégories les plus motrices recouvrent notamment les utilitaires, le streaming vidéo et les applications liées à l’intelligence artificielle générative. Cette combinaison indique que l’adoption des services numériques s’étend au-delà des usages traditionnels et se traduit de plus en plus par des paiements au sein des applications.

    Un marché qui s’étend, mais où le téléchargement ralentit

    Sur la durée, les revenus in-app poursuivent une trajectoire nettement ascendante : après 520 millions de dollars en 2021, le total dépasse le milliard en 2025 et pourrait atteindre environ 1,25 milliard cette année. En parallèle, le nombre de téléchargements tend à se stabiliser autour de 25 milliards par an, tandis que le temps passé sur les applications continue d’augmenter.

    Ce décalage entre volumes et monétisation suggère un marché en transition : les utilisateurs passent plus de temps sur leurs applications et acceptent davantage de payer pour des fonctionnalités ou des contenus numériques.

    La captation des recettes reste dominée par les plateformes globales

    Si les dépenses progressent, elles se concentrent largement sur quelques acteurs internationaux. Au premier trimestre, des services comme Google One, Facebook, ChatGPT et YouTube figurent parmi les plus contributeurs. À l’inverse, les applications domestiques se distinguent surtout dans le streaming vidéo, avec des acteurs comme JioHotstar ou SonyLIV mieux placés dans les classements.

    Le même contraste apparaît du côté des téléchargements : ChatGPT, Instagram et des applications de “short drama” d’origine chinoise se placent en tête, suivis par des apps indiennes telles que Story TV, JioHotstar ou Meesho.

    Une monétisation encore en construction

    Malgré la croissance, l’Inde demeure un marché relativement peu dépensier au regard d’autres régions. Le revenu par téléchargement y reste d’environ 0,03 dollar, contre plus de 0,20 dollar en Asie du Sud-Est et en Amérique latine. Autrement dit, la consommation numérique progresse, mais la monétisation n’a pas encore atteint les niveaux observés ailleurs.

    Les dépenses se concentrent en outre sur des segments déjà établis, notamment la productivité, les réseaux sociaux et le streaming vidéo. Dans ce contexte, le streaming vidéo représente une part très importante des meilleures applications en termes de revenus, ce qui confirme sa capacité à générer des paiements réguliers.

    L’IA générative et les formats courts accélèrent

    La demande se diversifie, avec un intérêt marqué pour l’intelligence artificielle générative. Les applications de ce type enregistrent une forte hausse des téléchargements, et ChatGPT se retrouve parmi les acteurs majeurs à la fois en volumes et en revenus. L’essor des applications liées à l’IA s’inscrit dans une dynamique plus large : une partie du marché teste de nouveaux usages et la monétisation suit progressivement.

    Les plateformes de “short drama” progressent également très rapidement, portées par des applications comme FreeReels. Cette accélération laisse penser que l’écosystème indien en est encore à un stade où de nouvelles catégories peuvent élargir la base d’utilisateurs prêts à payer.

    Deux repères utiles pour suivre l’offre numérique

    Pour observer l’évolution des usages liés à l’IA et aux paiements mobiles, certains outils grand public permettent de comparer plus facilement des parcours d’abonnement et des services associés, par exemple un smartphone Android orienté performance pour services cloud et IA. Côté lecture et divertissement, un appareil de streaming peut aussi servir de point d’entrée pour comprendre comment les contenus vidéo structurent une partie importante des revenus in-app.