Catégorie : Actualités

  • Toyota a créé une utopie privée de 10 milliards de dollars : que se passe-t-il à l’intérieur ?

    Toyota a créé une utopie privée de 10 milliards de dollars : que se passe-t-il à l’intérieur ?


    Au Consumer Electronics Show, Toyota a présenté une vision ambitieuse : créer une « ville du futur » destinée à accueillir des chercheurs et des ingénieurs. Baptisée Woven City, cette installation devait servir de base à une transformation plus large du constructeur, qui cherche à s’imposer comme un acteur majeur de la mobilité et des technologies associées.

    Après un investissement évalué à 10 milliards de dollars, les premiers résidents ont emménagé il y a environ six mois. Des profils sélectionnés, regroupés sous le nom de « Weavers », ont rejoint ce mini-environnement urbain conçu pour tester de nouvelles technologies, notamment grâce à un réseau très dense de capteurs.

    Une ville pensée pour la sécurité

    Dans l’optique de devenir l’un des constructeurs automobiles les plus orientés vers la sécurité, Toyota évoque l’objectif d’une « société sans accident ». Le défi est toutefois considérable : le constructeur rappelle implicitement que les véhicules en circulation aujourd’hui sont nombreux, et que la comparaison avec des flottes déjà déployées dans d’autres contextes n’est pas directe.

    Le directeur technique de Woven City, John Absmeier, explique que l’architecture de la conduite autonome ne peut pas reposer uniquement sur les capteurs embarqués. L’entreprise vise une perception et une anticipation à un niveau supérieur, s’appuyant sur une collaboration entre véhicules et infrastructures.

    Concrètement, il ne s’agit pas seulement de « voir » la route, mais aussi de détecter les événements difficiles à anticiper pour une voiture seule. Il cite par exemple le cas d’un enfant surgissant derrière un camion : selon lui, la solution la plus fiable passe par la présence de caméras disposées dans l’espace public, capables de repérer les risques, relayées par des systèmes d’alerte pour les véhicules arrivant dans la zone.

    Cette approche s’inscrit dans la logique des communications « véhicule vers tout » (V2X), que Toyota tente d’incarner à travers l’environnement même de Woven City, où l’infrastructure et les usagers sont appelés à interagir de façon continue.

    Une expérimentation qui soulève des questions de vie privée

    Sur place, l’idée de capteurs omniprésents devient très tangible. Lors d’une visite, plusieurs caméras peuvent être repérées à un même carrefour, et d’autres sont également visibles dans les bâtiments traversés. Même des lieux plus modestes, comme une petite boutique de l’installation, semblent équipés de systèmes d’observation destinés à alimenter les tests et la collecte de données.

    Cette densité technologique illustre le cœur du projet : sans information partagée à grande échelle, les systèmes d’assistance et de conduite automatisée peinent à atteindre les niveaux de fiabilité recherchés. Mais elle montre aussi pourquoi Woven City est un terrain de recherche particulièrement sensible, là où les enjeux de protection des données et de consentement deviennent centraux.

    Pour suivre l’évolution de ces technologies, certains s’intéressent à l’écosystème matériel qui permet de traiter des flux vidéo et des données capteurs en environnement connecté. Dans cette logique, un enregistreur vidéo réseau peut servir de référence pour comprendre comment l’industrie structure le stockage et la supervision de données visuelles. D’autres regardent aussi les équipements liés aux réseaux et à la gestion du trafic, via un commutateur réseau industriel utile pour saisir les contraintes liées aux communications à faible latence.

    À travers Woven City, Toyota pousse une idée claire : la mobilité du futur ne se limite pas au véhicule. Elle dépend d’un ensemble de systèmes — infrastructures, communications, capteurs et règles de sécurité — capables de fonctionner ensemble. Reste que, plus l’environnement devient « intelligent », plus la frontière entre innovation et enjeux sociétaux se déplace rapidement.

  • Écosse : Pourquoi Oli McBurnie et Ross Stewart ne font-ils pas partie de la course à la Coupe du monde ?

    Écosse : Pourquoi Oli McBurnie et Ross Stewart ne font-ils pas partie de la course à la Coupe du monde ?


    Oli McBurnie et Ross Stewart n’apparaissent pas dans le champ de réflexion du sélectionneur écossais pour le prochain cycle de Coupe du monde. Malgré des performances récentes remarquées en club, leur absence interroge, tant la forme offensive actuelle de ces joueurs semble plaider en faveur d’un renouvellement.

    McBurnie en feu, mais Clarke ne se laisse pas convaincre

    Le premier est particulièrement difficile à ignorer. Oli McBurnie a inscrit deux buts lors de la victoire de Hull face à Wrexham (2-1). Cette réussite s’inscrit dans une dynamique déjà très convaincante : l’attaquant affiche 18 buts en 39 matchs, toutes compétitions confondues, avec également sept passes décisives. Son temps de jeu et ses chiffres offensifs pendant la saison mettent en évidence une efficacité régulière, même après une période interrompue par une blessure.

    Pour autant, les signaux ne semblent pas passer. Le récit évoqué autour de ses échanges avec le sélectionneur suggère une réponse jugée peu encourageante. Si cette version est fidèle, le sélectionneur se montre déjà fermé, au moins dans l’approche actuelle du recrutement. Or, dans un contexte où la forme sportive pèse lourd, l’enjeu est de savoir si Clarke privilégie davantage une logique d’ensemble (profil, complémentarités, habitudes) plutôt que la seule dynamique de fin de saison.

    Stewart et McBurnie : la forme contre l’ordre établi

    Selon les éléments avancés, le sélectionneur ne semble pas revoir sa hiérarchie. Dans l’optique de Clarke, Stewart et McBurnie ne figureraient pas en haut du classement interne, ou ne seraient même pas suffisamment intégrés au raisonnement immédiat. Cette lecture entre en tension avec une réalité statistique : dans les indicateurs de forme récents, ces attaquants sont régulièrement cités parmi les plus performants côté écossais.

    La question qui se pose est celle du calibrage : la sélection s’appuie-t-elle sur la continuité d’un groupe déjà structuré, ou sur la capacité à transformer l’équipe à partir des meilleurs signaux du moment ? Clarke a bien sûr le droit de choisir, mais ignorer deux joueurs en confiance et en rendement suscite des débats.

    Le rôle déterminant des choix de terrain

    Le sélectionneur a aussi des priorités dans le suivi des matchs. Plutôt que de s’appuyer sur Hull ou Southampton, il aurait notamment observé Findlay Curtis avec Kilmarnock. Dans cette même période, d’autres attaquants écossais se sont mis en évidence, à l’image de Shankland, régulièrement productif, et de Hirst, qui a montré des éléments prometteurs en préparation.

    Ce contraste renforce une impression : Clarke chercherait d’abord des profils correspondant à son projet, quitte à s’éloigner de la “formule” la plus évidente sur le papier. Dans une sélection internationale, l’addition des qualités individuelles ne suffit pas toujours : il faut aussi une compatibilité tactique et une capacité à s’insérer rapidement.

    Pourquoi Adams et Dykes restent privilégiés

    Derrière McBurnie et Stewart, d’autres noms semblent déjà solidement installés. Adams, par exemple, est présenté comme acquis dans l’organisation actuelle. Dykes, lui, est maintenu dans le giron malgré un rendement plus discret en club sur la période, ce qui laisse penser que sa valeur repose aussi sur des paramètres moins quantifiables : présence, impact dans certains duels, rôle dans la dynamique du vestiaire.

    Mais si l’on se limite aux chiffres “ici et maintenant”, l’argument en faveur de certaines présences peut paraître plus fragile. À l’inverse, les données récentes de Stewart et McBurnie suggèrent que l’on pourrait faire évoluer la sélection sans renier l’identité du groupe.

    Une sélection qui doit arbitrer entre constance et surprise

    Clarke mène un travail sur plusieurs saisons et dispose de toute latitude pour sélectionner. La difficulté, c’est que la Coupe du monde ne tolère pas les demi-mesures : un tournoi demande des automatismes et des décisions claires, mais aussi le courage d’intégrer des joueurs capables de faire la différence, surtout lorsqu’ils sont en pleine ascension.

    Dans ce débat, le cœur du sujet reste simple : Stewart et McBurnie semblent offrir un rendement et une confiance que beaucoup jugent “éligibles” à une convocation. Leur non-sélection renvoie alors à une question stratégique : Clarke mise-t-il davantage sur la continuité, ou sur l’opportunité de diversifier l’attaque avec des profils en pleine progression ?

    Pour suivre l’actualité sportive au quotidien, certains supporters apprécient aussi de disposer d’un écran fiable pour regarder les résumés et analyses : par exemple une Smart TV 4K de 55 pouces peut améliorer le confort de visionnage lors des matchs et des programmes de décryptage. Pour le suivi en mobilité, un bon outil peut aussi aider : une batterie externe (power bank) de 20000 mAh est pratique pour rester connecté aux infos sans dépendre du réseau.

    En attendant, la trajectoire de ces attaquants continue de nourrir les discussions : si le sélectionneur s’entête à fermer la porte, il devra expliquer pourquoi des joueurs en forme ne rentrent pas dans l’équation, malgré les signaux club.

  • Bitcoin stagne près de 80 000 $, mais les flux vers les ETF et les actions laissent présager une percée : Crypto Daily

    Bitcoin stagne près de 80 000 $, mais les flux vers les ETF et les actions laissent présager une percée : Crypto Daily


    Le bitcoin évolue en retrait près de la barre des 80 000 dollars après avoir brièvement franchi ce seuil lors des séances en Asie. Malgré ce léger essoufflement, la principale cryptomonnaie conserve un biais positif à court terme, soutenu notamment par le retour des flux vers les produits cotés au comptant et par un environnement global plutôt favorable aux actifs à risque.

    Bitcoin hésite autour de 80 000 dollars

    Après un pic temporaire au-dessus de 80 000 dollars, le BTC repasse autour de 79 000 dollars. Sur la journée, il affiche une progression modérée, tandis que le reste du marché marque aussi des gains, avec une hausse proche du demi-point de pourcentage sur un panier d’actifs, et des performances plus nettes pour certaines altcoins.

    Le point de bascule se situe autour de la zone psychologique des 80 000 dollars. Les observateurs insistent sur le fait qu’un franchissement net et durable pourrait transformer le mouvement en scénario de continuation, tandis qu’un rejet pourrait relancer un retour vers des niveaux plus centraux.

    Le signal clé : la demande au comptant via les ETF

    Au-delà des mouvements de prix, l’attention se concentre sur les flux institutionnels. Les analystes estiment que la dynamique actuelle s’explique par un mélange de sentiment “risk-on” sur les marchés financiers et d’achats réels via les ETF spot.

    Les produits cotés au comptant aux États-Unis ont enregistré des entrées importantes lors de la dernière séance de la semaine, prolongeant une tendance favorable sur plusieurs semaines. Les commentaires de professionnels du trading mettent en avant le fait que ces flux soutiennent les tentatives de cassure plutôt que leur “annulation” par des prises de position opposées.

    Les conditions qui favorisent une sortie de range

    Dans cet environnement, le scénario le plus attendu reste celui d’une poursuite du mouvement si la demande spot continue de répondre aux niveaux de prix plus élevés. L’idée centrale est simple : tant que les flux restent solides et que les marchés traditionnels restent bien orientés, la probabilité d’une sortie de gamme au-dessus de 80 000 augmente.

    Principaux risques à surveiller

    Malgré un tableau globalement positif, plusieurs facteurs pourraient freiner la dynamique. D’abord, la sensibilité des marchés aux tensions géopolitiques, notamment au Moyen-Orient, peut provoquer des mouvements rapides sur les actifs risqués. Ensuite, les risques structurels liés à certains secteurs de la finance décentralisée (DeFi) restent un point d’attention pour l’adoption à plus large échelle.

    Niveau technique surveillé

    Sur le plan graphique, le bitcoin teste une résistance autour de 80 600 dollars, associée à une zone où une phase de baisse précédente avait ralenti. Les analystes soulignent que :

    • un dépassement confirmé renforcerait l’hypothèse d’un rebond s’inscrivant dans une tendance plus large ;
    • à l’inverse, un échec durable pourrait provoquer une consolidation prolongée, voire un nouvel ajustement à la baisse.

    Dans ce contexte, l’essentiel est de suivre à la fois le comportement du prix autour de 80 000 et la continuité des flux vers les ETF spot, afin de déterminer si la cassure se transforme en tendance.

    Pour suivre plus facilement vos repères de marché et vos niveaux techniques, certains investisseurs privilégient des outils de lecture de graphiques sur écran, comme un double écran 4K pour setup de trading, qui aide à comparer plusieurs timeframes. Pour gérer l’organisation de l’information, un support de stockage matériel de type hardware wallet peut aussi être envisagé dans une logique de gestion des risques.

  • L’essor de l’IA physique soulève des enjeux de gouvernance pour les systèmes autonomes

    L’essor de l’IA physique soulève des enjeux de gouvernance pour les systèmes autonomes


    À mesure que l’intelligence artificielle « physique » s’incarne davantage dans des robots, des capteurs et des équipements industriels, les questions de gouvernance deviennent plus délicates. Le débat ne se limite plus à savoir si des agents peuvent accomplir des tâches, mais à déterminer comment leurs actions sont testées, observées et, le cas échéant, interrompues lorsqu’ils interagissent avec le monde réel.

    Dans ce contexte, la gouvernance rejoint la sécurité opérationnelle: elle doit couvrir le passage de la décision logicielle à un mouvement mécanique, l’accès à des outils, ainsi que les modalités d’arrêt ou d’escalade quand quelque chose ne se déroule pas comme prévu.

    Des systèmes déjà installés, une intensification attendue

    L’industrialisation de la robotique fournit un socle concret à ces discussions. En 2024, le nombre de robots industriels installés dans le monde a dépassé les niveaux observés une décennie plus tôt, avec une progression qui se poursuit sur les années suivantes. Cette dynamique renforce l’urgence de clarifier les responsabilités: qui définit les limites, qui valide les procédures, et comment vérifier en conditions réelles que l’IA se comporte comme attendu?

    Parallèlement, plusieurs acteurs et analystes étendent l’étiquette « Physical AI » à un ensemble plus large: robots, machines autonomes, mais aussi logiciels proches du terrain, comme l’informatique « edge » et les systèmes embarqués. Cependant, les contours de la catégorie restent variables, notamment parce que les fournisseurs peuvent définir différemment ce qu’ils entendent par « intelligence » lorsqu’elle s’exprime dans des environnements physiques.

    Du résultat d’un modèle à l’action dans le réel

    La gouvernance de l’IA « logicielle » change de nature dès lors que l’on bascule vers des systèmes capables d’exécuter des actions dans un espace partagé avec des humains, des infrastructures et des machines. Une sortie de modèle peut devenir un ordre de déplacement, une instruction à un équipement ou une décision fondée sur des données capteurs. Dès lors, la sécurité ne dépend pas seulement de la performance du modèle, mais aussi de la conception des garde-fous: limites physiques, procédures d’arrêt, et chemins d’escalade.

    Les travaux récents sur la robotique illustrent cette tendance. Des modèles orientés « vision-langage-action » sont présentés comme capables d’interpréter des consignes naturelles et d’exécuter des séquences de manipulation. Le défi est alors double: d’une part, comprendre l’environnement (par exemple identifier des objets et leur position), d’autre part, vérifier le succès de la tâche et décider s’il faut réessayer, corriger ou stopper l’exécution.

    Dans cette logique, la notion de « succès » devient centrale. Elle oblige à intégrer au système des mécanismes de détection et d’évaluation, afin d’éviter que l’agent ne continue sur la base d’une interprétation incorrecte des conditions réelles.

    Contrôles de sécurité: de l’architecture aux outils et à l’audit

    La complexité augmente encore lorsque les agents peuvent appeler des outils, générer du code ou déclencher des actions. La gouvernance doit alors préciser:

    • quelles données un système peut consulter;
    • quels outils et quelles interfaces il peut utiliser;
    • quelles actions exigent une validation humaine;
    • comment les activités sont journalisées pour permettre un audit;
    • quelles procédures d’escalade sont déclenchées en cas d’écart.

    En robotique, la sécurité ne relève pas uniquement de règles informatiques. Elle englobe aussi des contrôles bas niveau (limites de force, prévention des collisions, stabilité) et des niveaux plus décisionnels (évaluer si une action demandée reste sûre au regard du contexte). L’objectif est de réduire les risques à la fois par des barrières techniques et par des mécanismes de raisonnement centrés sur le contexte.

    À l’échelle des organisations, des cadres de gestion des risques en IA existent déjà. Mais appliqués à des systèmes connectés à des robots, des capteurs ou des équipements industriels, ils demandent d’être adaptés: la gouvernance doit tenir compte du comportement du modèle, des interactions en environnement réel et des contraintes propres au matériel.

    Vers quels cas d’usage et quelles limites?

    La Physical AI est généralement associée à des usages tels que l’inspection industrielle, la fabrication, la logistique, ainsi que certaines opérations en entrepôts. Dans ces scénarios, l’enjeu consiste à faire interpréter l’environnement réel par le système, tout en imposant des limites claires avant toute décision autonome.

    La question de gouvernance devient donc préalable: comment définir, tester et valider ces limites avant d’autoriser l’exécution autonome? Les réponses attendues combinent des procédures d’évaluation en conditions représentatives, des mécanismes de vérification du résultat, et une traçabilité suffisante pour comprendre les décisions en cas d’incident.

    Dans les environnements industriels, les équipes s’appuient souvent sur des outils de visualisation, de tests et de monitoring. Pour une approche pragmatique côté terrain, certains utilisateurs se tournent vers des matériels de mesure et de contrôle comme un multimètre industriel fiable pour vérifier l’état de capteurs et l’intégrité de circuits, utile lors de phases de validation. Côté logiciel, des solutions d’enregistrement et de journalisation peuvent aussi être complétées par des équipements orientés monitoring, par exemple un switch réseau managé afin de mieux contrôler et tracer les flux de communication entre composants.

  • Quiz de football : identifiez tous les buteurs de Manchester United contre Liverpool en Premier League depuis 2010

    Quiz de football : identifiez tous les buteurs de Manchester United contre Liverpool en Premier League depuis 2010


    Le duel entre Manchester United et Liverpool, souvent décisif pour le classement, a récemment offert un nouvel épisode marquant. Après une victoire 3-2, les Red Devils ont consolidé leur position pour la qualification européenne, relançant l’intérêt autour de l’histoire de cette affiche. Dans ce contexte, un quiz propose de revenir sur un point précis : les buteurs mancuniens en Premier League face aux Reds depuis 2010.

    Un défi basé sur les buteurs mancuniens depuis 2010

    Depuis 2010, 23 joueurs ont trouvé le chemin des filets pour Manchester United contre Liverpool en Premier League. L’objectif est simple en apparence, mais exigeant dans la pratique : les retrouver tous, année après année, malgré les changements d’effectifs et les saisons parfois très différentes.

    Ce type de question met en lumière la variété des profils qui ont marqué dans ce match : attaquants confirmés, solutions plus ponctuelles et périodes où certains joueurs se sont imposés comme des références face à un adversaire réputé pour sa combativité.

    Pourquoi ce quiz peut être piégeux

    Au-delà de la mémoire, la dynamique du jeu compte. Un classement est généralement influencé par la rapidité des réponses, ce qui transforme la simple révision statistique en véritable test de réflexes et de précision. Autrement dit, il ne s’agit pas seulement de connaître les buteurs, mais de les identifier sans hésitation.

    Pour ceux qui souhaitent s’entraîner, le plus efficace consiste à parcourir mentalement les périodes récentes : avant et après les transitions d’effectif, les saisons où United a davantage dominé, et celles où le match a basculé grâce à un but clé.

    Repères pour réviser avant de se lancer

    Sans entrer dans la liste complète des 23 noms, une méthode utile consiste à classer les joueurs par époques : les buteurs réguliers durant certaines phases, ceux qui ont marqué lors de matchs plus serrés, et les réussites plus rares mais décisives. En structurant l’information, on réduit les oublis et on améliore la restitution rapide.

    Pour accompagner ce type de révision, un livre de statistiques sur la Premier League peut servir de base de lecture rapide. Et pour ceux qui préfèrent une approche pratique, un petit tableau effaçable aide à organiser les noms par saisons et à s’entraîner au rythme des réponses.

    Un indicateur de la diversité offensive de United

    Au final, l’intérêt du quiz dépasse la performance individuelle. En recensant tous les buteurs depuis 2010, il raconte aussi l’évolution de Manchester United dans l’affiche face à Liverpool : des cycles où certains joueurs marquent plus souvent, des moments où le match se décide sur une action précise, et une compétition toujours imprévisible. Un test ludique, mais aussi une manière de mieux comprendre les dynamiques d’une rivalité moderne en Premier League.

  • La future présidence de la Fed en difficulté entre deux contraintes


    L’éventuelle prochaine présidence de la Réserve fédérale américaine (Fed) s’inscrit dans un contexte délicat. L’institution doit naviguer entre des objectifs potentiellement contradictoires : ramener l’inflation vers une trajectoire compatible avec son mandat et soutenir, dans le même temps, la stabilité financière et l’économie réelle. Or, les contraintes budgétaires, la volatilité des marchés et la persistance des prix élevés rendent l’équation plus difficile qu’il n’y paraît.

    Le problème n’est pas né d’un seul choc récent. L’inflation montrait déjà des signes de réchauffement avant les tensions liées à la guerre en Iran. Cette dynamique signifie que la Fed ne part pas d’une situation “propre” : elle doit évaluer l’origine de la hausse des prix, sa durabilité et sa sensibilité à la politique monétaire, tout en évitant de freiner excessivement l’activité.

    Une inflation qui s’était déjà installée

    Avant même l’aggravation géopolitique, les pressions inflationnistes avaient commencé à se manifester avec davantage d’intensité. Ce point est déterminant : lorsque la hausse des prix s’appuie sur des facteurs plus structurels (déséquilibres d’offre, coûts de production, ajustements de la demande), la réaction des taux d’intérêt peut demander plus de temps et dépendre davantage de la crédibilité de la politique monétaire.

    Dans un tel scénario, la Fed fait face à une contrainte : si elle attend trop, l’inflation risque de s’ancrer dans les anticipations. À l’inverse, si elle resserre trop ou trop longtemps, elle peut accentuer le risque d’un ralentissement économique.

    La Fed prise entre plusieurs risques

    Parler de “vice” revient à décrire un espace de décision étroit. D’un côté, l’objectif de stabilité des prix implique de rester vigilant sur l’évolution des composantes de l’inflation (services, biens, effets de base). De l’autre, le niveau de taux et la transmission de la politique monétaire à l’économie ne produisent pas d’effets instantanés. Il existe donc un décalage entre l’ajustement des taux et l’impact réel sur l’emploi, la croissance et les conditions financières.

    La situation se complique aussi à cause des réactions du marché : des mouvements rapides sur les anticipations de taux, le crédit et le dollar peuvent modifier l’environnement économique avant même que la Fed n’agisse pleinement. Le prochain responsable de la Fed pourrait donc devoir calibrer ses communications autant que ses décisions, pour maintenir une trajectoire cohérente de confiance.

    Pourquoi les chocs géopolitiques changent la donne, sans tout expliquer

    Les tensions internationales, notamment autour du Moyen-Orient, peuvent amplifier l’inflation via plusieurs canaux : énergie, transport, matières premières et primes de risque. Toutefois, lorsque l’inflation augmente déjà en amont, ces chocs jouent davantage un rôle de catalyseur qu’une cause unique.

    En pratique, cela signifie que la Fed devra probablement distinguer ce qui relève d’un choc temporaire (souvent influencé par les prix de l’énergie) de ce qui pourrait relever d’une persistance (salaires, services, demande plus résiliente). Cette lecture conditionne la vitesse et l’ampleur des ajustements attendus.

    Des décisions qui testent la crédibilité

    La prochaine direction de la Fed devra donc composer avec une double exigence : préserver la maîtrise de l’inflation tout en évitant une déstabilisation inutile. Dans ce contexte, la communication est un outil central. Elle vise à clarifier la méthode de décision : quels indicateurs seront déterminants, quelle tolérance à la volatilité et à quel rythme une trajectoire de désinflation doit être confirmée par les données.

    Pour suivre l’évolution de ces signaux sans se perdre dans le bruit, les investisseurs et observateurs consultent souvent des outils de synthèse des indicateurs macroéconomiques. Un lecteur de données économiques comme un calendrier économique peut aider à visualiser les publications susceptibles d’influencer la perception du cycle (inflation, emploi, croissance). De la même manière, une approche disciplinée des niveaux de prix et de taux peut être facilitée par des supports d’analyse, par exemple un tableau de bord macroéconomique pour agréger des données clés.

    Au final, la “tenaille” décrite dans le titre renvoie à un équilibre difficile : une inflation qui s’est accélérée avant le choc géopolitique, puis des risques additionnels qui pourraient prolonger ou raviver les pressions. Dans un tel environnement, le prochain président de la Fed devra faire preuve de constance, de précision et de prudence, avec une politique monétaire calibrée sur la dynamique réelle des prix plutôt que sur les seuls événements du moment.

  • Le nouveau LiDAR couleur d’Ouster est destiné à remplacer les caméras

    Le nouveau LiDAR couleur d’Ouster est destiné à remplacer les caméras


    L’industrie de la robotique et de la conduite autonome cherche depuis des années la meilleure combinaison de capteurs pour comprendre l’environnement. Ouster affirme avoir trouvé une réponse en intégrant, au sein d’un même dispositif, la mesure de profondeur du lidar et l’acquisition d’images couleur.

    La société, basée à San Francisco, présente une nouvelle gamme de capteurs lidar baptisés « Rev8 », présentés comme des “native color lidar”. L’objectif affiché est de simplifier la perception des machines en réduisant le besoin de fusion complexe entre plusieurs capteurs, notamment entre une caméra et un lidar distincts.

    Un seul capteur pour la 3D et la couleur

    Avec Rev8, Ouster vise à produire simultanément des informations de profondeur en trois dimensions et des données couleur, transformant ainsi ce qui était, jusqu’ici, un traitement en deux étapes en un flux plus unifié. L’entreprise décrit cette approche comme une capacité « native » : l’appareil capterait à la fois l’image et la topographie, sans exiger une mise en correspondance complète entre deux sources séparées.

    Le PDG d’Ouster, Angus Pacala, explique que l’enjeu historique pour les fabricants et les intégrateurs consiste à calibrer et fusionner les données issues de capteurs différents. Selon lui, cette phase mobilise du temps et ne permet souvent d’atteindre qu’un niveau partiel de performance.

    L’ambition est claire : selon Ouster, un tel capteur pourrait, à terme, réduire le rôle des caméras dans certaines architectures de perception, en s’appuyant directement sur un flux lidar “colorisé” et pré-intégré.

    Une architecture « digital lidar » et une technologie SPAD

    Ouster s’appuie sur une architecture dite « digital lidar ». Là où les systèmes analogiques reposent sur davantage de composants mobiles, l’entreprise fait capturer les informations directement sur une puce dédiée grâce à des détecteurs spécifiques : des diodes à avalanche à photons uniques (SPAD).

    Dans la gamme Rev8, la technologie SPAD est également utilisée pour l’acquisition des données couleur. Pacala affirme que cette méthode permettrait une sensibilité accrue par rapport à des caméras “classiques”, tout en conservant un flux 3D exploitant la profondeur.

    • Ouster met en avant une définition couleur sur 48 bits et une plage dynamique élevée (116 dB), présentées comme des caractéristiques visant une meilleure robustesse aux variations de luminosité.
    • Le système fournirait un nuage de points “colorisé” traité en amont, avec un format que les équipes de perception pourraient exploiter comme un flux de données 3D ou, selon les besoins, comme un flux image.

    Vers de nouveaux usages : robotaxis, drones et logistique

    Au-delà du principe “un capteur, deux fonctions”, Ouster situe la valeur du Rev8 dans des cas d’usage nécessitant à la fois une bonne compréhension spatiale et des détails visuels. L’entreprise cite notamment les robotaxis, la robotique industrielle, ainsi que les drones et la logistique à haute vitesse.

    Pacala souligne en particulier le capteur OS1 Max, qu’il décrit comme un lidar longue portée et qu’il associe à des déploiements possibles dans des scénarios de transport automatisé et de vol.

    Une concurrence déjà présente sur le “color lidar”

    Ouster n’est pas la seule entreprise à communiquer autour du lidar couleur. D’autres acteurs, notamment en Chine, ont aussi annoncé leurs propres plateformes. L’idée générale reste la même : augmenter la perception en combinant la dimension visuelle et la profondeur.

    Selon Ouster, la différence principale résiderait dans l’intégration : plutôt que de juxtaposer lidar et caméra dans un système séparé, la logique revendiquée consiste à mettre imagerie et mesure sur une même base de calcul et de capture. Le but est de diminuer l’effort de traitement côté intégrateur et d’ouvrir la voie à une architecture moins dépendante de caméras.

    Des produits pour la gamme Rev8

    La société annonce plusieurs modèles construits autour de la plateforme Rev8, dont OS0, OS1 et OSDome. Ouster indique aussi avoir déjà expédié des échantillons à des clients existants et affirme travailler à la mise en production et aux commandes.

    Pour les équipes qui évaluent ces capteurs, il est souvent utile de disposer d’un écosystème de test cohérent. À titre d’exemple, certains laboratoires s’équipent de systèmes d’alimentation et de contrôle robustes, comme le chargeur/alim de table pour électronique industrielle, afin de fiabiliser les essais en environnement atelier.

    Les évaluations portent également sur la capacité à enregistrer et analyser des flux capteurs. Un disque SSD externe rapide peut s’avérer utile pour stocker et relire des données de perception lors de phases de tests.

    À ce stade, l’annonce d’Ouster met surtout l’accent sur un changement de promesse : réduire la charge de fusion et de calibration entre capteurs, tout en proposant un flux 3D exploitant directement l’information couleur. Reste à voir comment ces spécifications se traduiront, concrètement, dans les déploiements à grande échelle et dans des environnements variés.

  • Le match entre St Mirren et Kilmarnock sera-t-il décisif pour les play-offs ?

    Le match entre St Mirren et Kilmarnock sera-t-il décisif pour les play-offs ?


    Après un début de saison marqué par un moment fort — une victoire retentissante contre le Celtic lors du parcours en League Cup — St Mirren aborde un rendez-vous décisif face à Kilmarnock. Le match, disputé à domicile, pourrait peser lourd sur la dynamique de fin de championnat, alors que la course au maintien de la saison s’annonce tendue et que la perspective d’un duel via les barrages demeure bien réelle.

    St Mirren en difficulté : un bilan qui s’est dégradé

    Depuis ce succès éclatant, St Mirren a perdu en régularité. En championnat, l’équipe n’a inscrit que 27 buts en 35 rencontres, un chiffre qui traduit un déficit offensif. Surtout, la solidité défensive qui avait permis d’arracher des places dans le top six lors des trois saisons précédentes semble s’être affaiblie.

    Le changement d’entraîneur a toutefois apporté un élan temporaire. Même si St Mirren n’avait pas forcément vocation à se séparer de Stephen Robinson, l’arrivée temporaire de McLeish a coïncidé avec une relance : une défaite de justesse contre les Rangers, puis des victoires de suite contre Falkirk et Aberdeen. Mais cette dynamique s’est interrompue, laissant place à une série de quatre défaites consécutives.

    Un match perturbé par les absences

    Les choix d’effectif risquent d’être limités par une vague de blessures. Le groupe a notamment perdu des joueurs clés, dont Keanu Baccus, Marcus Fraser et Jonah Ayunga, auteur de deux buts lors d’une finale disputée à Hampden. Ces indisponibilités peuvent directement influencer la qualité du pressing, la construction et la capacité à créer des occasions.

    Le secteur défensif et le poste de gardien constituent également un point d’attention : Shamal George est absent, tout comme Ryan Mullen. Sur les deux derniers matchs, c’est Ross Sinclair, recruté dans l’urgence, qui a gardé les cages. Un changement à ce niveau peut faire varier la stabilité de l’ensemble, notamment lors des phases de transition.

    Le poids du domicile et l’enjeu du classement

    À l’approche de la rencontre, St Mirren compte sur l’avantage de jouer au SMiSA Stadium. McLeish insiste sur ce levier, tout en rappelant qu’il ne faut pas compter sur des facteurs “externes” : la différence devra se faire sur le terrain. Le match s’annonce donc comme un test de caractère, puisque le résultat pourrait réduire l’incertitude sur la suite du championnat.

    Kilmarnock arrive avec un profil de performance en déplacement plus compliqué, tandis que St Mirren, lors de son dernier match à domicile, a concédé une défaite 2-0 face à Livingston — une équipe qui n’avait pas gagné depuis août. Ce contraste suggère un match ouvert à l’interprétation : les séries récentes ne garantissent pas à elles seules le scénario à venir, mais elles accentuent la pression sur chaque équipe.

    Un tournant possible pour les barrages

    Au-delà de la question “qui gagnera ?”, la principale interrogation est la suivante : quel sera l’impact au moment de boucler la saison, notamment dans la perspective d’un affrontement de barrages. Une victoire pour St Mirren pourrait redonner de l’air dans la lutte pour ne pas retomber dans les zones les plus anxiogènes. Inversement, un résultat négatif renforcerait la nécessité de points sur les derniers matchs, et ferait de la fin de saison une séquence de plus en plus difficile à gérer.

    Sur le papier, Kilmarnock peut profiter du moment pour chercher une continuité, tandis que St Mirren doit convertir l’avantage du terrain en performance immédiate. Entre les blessures, les ajustements de poste et la fatigue accumulée par la série de résultats, la rencontre pourrait se jouer sur des détails : la gestion des transitions, l’efficacité devant le but et la capacité à tenir les temps faibles.

    Pour suivre ou préparer la rencontre dans de bonnes conditions, un petit poste de radio portable peut s’avérer pratique, surtout si le match est regardé en déplacement ou avec des connexions instables. Et pour analyser les temps forts, un chronomètre sportif fiable permet de repérer précisément les séquences clés et les phases de pression.

  • Berkshire Hathaway détient désormais 397 milliards de dollars de liquidités, et d’autres entreprises hésitent aussi à investir en Bourse

    Berkshire Hathaway détient désormais 397 milliards de dollars de liquidités, et d’autres entreprises hésitent aussi à investir en Bourse


    Berkshire Hathaway accumule un niveau de liquidités rarement observé : environ 397 milliards de dollars de trésorerie. Une telle réserve constitue un signal implicite aux investisseurs. Plutôt que de déployer rapidement le capital sur les marchés, le conglomérat semble privilégier l’attente, au nom de la discipline d’investissement et d’une gestion prudente du risque.

    Une réserve record et un message de patience

    L’augmentation de la trésorerie n’est pas seulement un indicateur financier. Elle peut traduire une préférence pour des opportunités considérées comme suffisamment attractives, ou au contraire une réticence à investir dans un environnement jugé moins favorable. Dans ce contexte, l’enjeu pour les actionnaires est double : comprendre pourquoi les liquidités restent élevées et comment l’entreprise compte les mobiliser, le cas échéant, lorsque la valorisation des actifs correspondra davantage à ses critères.

    Cette posture s’inscrit dans la logique historique de Berkshire Hathaway : privilégier la qualité, attendre les bons prix et éviter les décisions précipitées. La trésorerie devient alors un coussin de sécurité, mais aussi un outil de flexibilité pour saisir des occasions, notamment lors de fluctuations de marché.

    Un phénomène qui dépasse Berkshire

    Berkshire Hathaway n’est pas un cas isolé. D’autres entreprises et investisseurs manifestent une certaine prudence face au marché boursier, notamment lorsque les valorisations paraissent tendues ou lorsque la visibilité économique est jugée limitée. Plusieurs raisons peuvent expliquer ce comportement : arbitrages vers d’autres classes d’actifs, coûts de financement, incertitudes macroéconomiques ou manque de catalyseurs convaincants.

    Cette tendance à la retenue peut avoir des conséquences indirectes : elle réduit la pression d’achat sur les actions et contribue à maintenir des niveaux de liquidité dans l’économie des entreprises. À court terme, cela peut favoriser une volatilité plus sélective, où les flux se concentrent sur quelques segments jugés plus sûrs.

    Que signifie une trésorerie élevée pour les investisseurs ?

    Une grande poche de liquidités n’implique pas automatiquement un changement immédiat de stratégie. Elle peut servir à financer des acquisitions, à renforcer la résilience face à des chocs, ou à rémunérer le capital via d’autres mécanismes selon les opportunités disponibles.

    Pour les investisseurs, l’interprétation la plus raisonnable consiste à surveiller plusieurs éléments : l’évolution des opportunités d’acquisition, la discipline de valorisation, et la façon dont Berkshire équilibre liquidité et déploiement du capital. En parallèle, beaucoup d’investisseurs cherchent à consolider leur compréhension des cycles de marché et de la gestion de portefeuille ; un support pratique peut être utile, comme un livre de référence sur la stratégie d’investissement value et la marge de sécurité, ou encore un guide d’analyse financière et de modélisation via tableurs, afin de mieux cadrer la lecture des annonces et des chiffres.

    Perspectives : attendre un meilleur prix

    En résumé, la trésorerie record de Berkshire Hathaway renforce l’idée que l’entreprise privilégie la patience plutôt que l’investissement automatique. Dans un marché où les opportunités peuvent être inégalement valorisées, cette approche vise à maximiser le rendement futur du capital, tout en limitant le risque d’entrer sur le marché à des prix jugés trop élevés.

    À mesure que l’environnement économique évolue, la question centrale reste la même : quand et comment l’excédent de liquidités sera-t-il mobilisé ? En attendant, le niveau de cash agit comme une réserve stratégique et comme un repère pour ceux qui suivent la trajectoire du conglomérat.

  • Des femmes portent plainte contre des hommes ayant utilisé leurs comptes Instagram pour créer des influenceurs pornographiques alimentés par l’IA

    Des femmes portent plainte contre des hommes ayant utilisé leurs comptes Instagram pour créer des influenceurs pornographiques alimentés par l’IA


    Il y a plus d’un an, MG menait une vie ordinaire à Scottsdale, en Arizona, entre son travail et des revenus complémentaires le week-end. Comme beaucoup de jeunes femmes, elle utilisait Instagram pour partager des moments de sa vie. Son compte, suivi par un peu plus de 9 000 personnes, n’avait rien d’une immense plateforme. Jusqu’au moment où elle découvre que des images la représentant circulaient—et que son identité servait à fabriquer des contenus sexuels générés par intelligence artificielle.

    Des vidéos qui ressemblent « exactement » au visage de la plaignante

    Selon la plainte, MG reçoit un message direct d’un abonné lui demandant s’il existait des photos et vidéos montrant une femme ressemblant à s’y méprendre à son propre visage. En consultant les liens, elle constate la présence de plusieurs Reels où son image semble avoir été superposée à un corps, présenté comme le sien, avec des tatouages situés aux mêmes endroits.

    MG affirme avoir été choquée par le réalisme du montage. « Si vous ne me connaissiez pas, vous pourriez très bien croire qu’il s’agit de moi », indique-t-elle. Pour elle, la découverte constitue un « électrochoc » : elle n’aurait plus de contrôle sur son image, et encore moins sur son utilisation dans des contenus à caractère sexuel.

    Des contenus sexuels générés à partir de son apparence, puis utilisés pour vendre un service

    La situation s’aggrave lorsque MG apprend que ces images ne restent pas cantonnées à la diffusion informelle. D’après sa plainte, elles seraient aussi employées pour promouvoir AI ModelForge, une plateforme présentée comme un outil permettant de former des « influenceurs » générés par intelligence artificielle.

    Le mécanisme allégué reposerait sur des cours et tutoriels destinés à des abonnés masculins. Ces formations indiqueraient comment utiliser un logiciel baptisé CreatorCore pour entraîner des modèles à partir de photos de jeunes femmes, sans leur consentement. Les contenus produits seraient ensuite publiés sur des réseaux comme Instagram et TikTok.

    Une plainte qui vise aussi la commercialisation du procédé

    Au-delà du préjudice lié à l’atteinte à l’image, l’affaire soulève une question plus large : celle de la transformation d’un abus (l’usurpation d’identité) en activité structurée et monétisée. Les allégations présentées par MG visent ainsi non seulement la fabrication de contenus, mais aussi l’usage de ces contenus comme argument marketing pour attirer des utilisateurs vers un service.

    Dans ce type de dossiers, les enjeux se concentrent souvent sur la responsabilité des acteurs impliqués, la collecte d’images, la manière dont les modèles sont entraînés et la finalité commerciale de la diffusion.

    Défendre son image à l’ère des contenus générés par IA

    Cette affaire illustre une tendance déjà documentée : l’IA générative permet des montages de plus en plus convaincants, rendant parfois difficile la distinction entre contenu réel et contenu fabriqué. Pour les personnes touchées, la difficulté ne tient pas seulement à la suppression des publications, mais aussi à la traçabilité du processus et au traitement d’une diffusion qui peut rapidement s’étendre.

    • En cas de risque de diffusion d’images, renforcer la sécurité des comptes et limiter l’accès aux contenus personnels peut aider à réduire certains abus, même si cela ne les élimine pas toujours.

    • Sur les appareils, l’usage d’un gestionnaire de mots de passe et d’une authentification renforcée peut contribuer à mieux protéger l’identité numérique, notamment contre des tentatives de piratage.

    Dans une logique de protection générale du compte, certains utilisateurs s’appuient par exemple sur un gestionnaire de mots de passe pour éviter la réutilisation de mots de passe et limiter les compromissions. Pour renforcer l’accès, un clavier de sécurité / clé de sécurité peut aussi être envisagé afin de compléter l’authentification à deux facteurs.

    Reste à voir comment la justice qualifiera les responsabilités et les manquements reprochés. Mais l’affaire met déjà en lumière un point central : quand l’apparence d’une personne est utilisée sans consentement pour produire des contenus intimes et ensuite les monétiser, le débat dépasse l’outil technique. Il touche directement aux droits, à la protection de la vie privée et aux limites de l’exploitation commerciale de l’IA.