Catégorie : Actualités

  • Cambrioleur en crypto condamné à 78 mois pour avoir volé des portefeuilles matériels lors d’effractions

    Cambrioleur en crypto condamné à 78 mois pour avoir volé des portefeuilles matériels lors d’effractions


    Un homme de Californie a été condamné à 78 mois de prison pour sa participation à un vaste réseau de vol de cryptomonnaies ayant entraîné un préjudice supérieur à 250 millions de dollars. Le dossier met en lumière une évolution inquiétante des attaques : lorsque le piratage échoue, les auteurs peuvent recourir à des intrusions physiques ciblant des portefeuilles matériels.

    Une peine de 78 mois pour un rôle central

    Marlon Ferro, 20 ans, connu sous le pseudonyme « GothFerrari », a été condamné à une peine de six ans et demi assortie d’une mise sous surveillance de trois ans. Il devra aussi verser 2,5 millions de dollars au titre de la restitution.

    Le tribunal l’a reconnu coupable d’avoir pris part à une conspiration relevant du cadre RICO (Racketeer Influenced and Corrupt Organizations), après un aveu de culpabilité intervenu en octobre 2025. Selon l’accusation, Ferro a agi comme un « recours en dernier ressort » lorsque les membres du groupe n’arrivaient pas à soutirer les fonds par piratage ou par accès à distance.

    Des intrusions physiques pour s’emparer de wallets matériels

    Le mode opératoire décrit dans le dossier repose sur l’exploitation de plusieurs étapes : repérage des victimes, tentatives d’accès à leurs comptes et appels frauduleux. Mais lorsque les avoirs sont conservés sur des portefeuilles matériels — conçus pour résister aux attaques à distance — le groupe se tournerait vers des actions sur place.

    Le ministère public indique notamment deux faits distincts :

    • En février 2024, Ferro se serait rendu à Winnsboro (Texas), aurait pénétré dans une habitation et aurait emporté un portefeuille matériel contenant environ 100 bitcoins, évalués à plus de 5 millions de dollars à l’époque.
    • Plus tard, au Nouveau-Mexique, il aurait surveillé une résidence pendant plusieurs jours puis, avec l’aide d’autres membres du réseau, serait entré par effraction avec une méthode décrite comme brutale. Une caméra de surveillance l’aurait filmé pendant l’action.

    Des fonds utilisés pour des dépenses de luxe et du blanchiment

    Le dossier évoque une revente et un usage des crypto volées orientés vers des achats de biens de luxe : sacs de marque, montres, véhicules et même des dépenses liées à des jets privés. Les autorités indiquent aussi des opérations de blanchiment impliquant de faux documents d’identité, ainsi que des transferts destinés à couvrir certaines dépenses, y compris des frais liés à une procédure pénale.

    L’enquête a été menée par le FBI et l’IRS Criminal Investigation.

    Au-delà de ce cas : l’adaptation des attaques crypto

    Ces faits s’inscrivent dans un contexte où les attaques contre le secteur des cryptomonnaies restent fréquentes, souvent par le biais d’exploits informatiques sur des plateformes ou des infrastructures. Toutefois, ce dossier met en évidence un autre angle : quand les protections techniques limitent l’efficacité du piratage, des auteurs peuvent chercher à contourner ces limites par des moyens physiques.

    Pour les détenteurs de cryptomonnaies, la leçon principale est moins technologique que comportementale : la sécurité ne dépend pas uniquement du stockage. Elle implique aussi la protection du domicile, la vigilance contre le repérage et une gestion prudente des informations personnelles.

    En matière de sécurité, certains utilisateurs complètent le stockage matériel par des bonnes pratiques et des équipements adaptés. Par exemple, un portefeuille matériel peut être un point central de protection, comme un wallet matériel Ledger. Pour renforcer l’environnement numérique, d’autres s’orientent vers des solutions de protection et de sauvegarde, par exemple une clé de sécurité USB compatible, selon les besoins d’authentification.

  • Doutant des mythes, Trump a soudain compris que des tests de sécurité pour l’IA pourraient être utiles

    Doutant des mythes, Trump a soudain compris que des tests de sécurité pour l’IA pourraient être utiles



    Les débats autour de la “mise à l’épreuve” de l’intelligence artificielle se heurtent à un problème central : sans critères clairement définis, le processus risque d’être influencé par la politique. Plusieurs responsables et experts estiment qu’un contrôle public mal conçu pourrait mener à une approche où chaque camp cherche à orienter les règles du test pour renforcer ses propres positions.

    Le risque d’un système façonné par le pouvoir

    En l’absence de standards établis, la procédure pourrait devenir un levier politique, avertit Kreps. L’enjeu n’est pas seulement technique : il s’agit d’éviter un cadre où “celui qui détient le pouvoir” détermine la manière dont les évaluations sont menées. Or, pour l’instant, aucune des administrations américaines successives n’a proposé de mécanisme jugé capable de neutraliser ce risque.

    Contrôler sans décider du contenu

    Dans sa communication, Microsoft évoque la coopération avec la CAISI et le NIST pour développer les méthodes d’évaluation, notamment via des tests “adversariaux”. L’idée consiste à examiner comment les systèmes réagissent à des scénarios inattendus, à des voies potentielles de mauvaise utilisation et à différents modes de défaillance. Microsoft compare ce travail à des tests de sécurité menés sur des équipements critiques — comme des airbags ou des freins — afin d’assurer une fiabilité sous contrainte.

    Pourtant, l’approche ne convainc pas entièrement Gregory Falco, chercheur à l’université Cornell. Il met en garde contre une surveillance qui se limiterait à une validation politique des sorties d’un modèle. Le contrôle de l’État ne devrait pas devenir un outil permettant de trancher si un système produit des propos jugés favorables ou défavorables à une administration en place.

    Vers un audit indépendant plutôt qu’un contrôle partisan

    Falco plaide plutôt pour une forme d’audit indépendant, capable d’évaluer la sécurité et la robustesse sans chercher à contrôler le contenu. L’idée est simple : si les entreprises savent que leurs modèles peuvent être audités à tout moment, elles auront davantage d’incitations à renforcer leurs tests internes et à réduire les déploiements risqués. Dans cette logique, l’audit serait accompagné de “conséquences réelles” en cas de négligence.

    Il estime par ailleurs que le gouvernement fédéral ne dispose pas aujourd’hui des compétences techniques, de l’infrastructure et du suivi opérationnel nécessaires pour évaluer directement ces systèmes à grande échelle. D’où l’intérêt, selon lui, de s’appuyer sur une évaluation structurée et externalisée, plutôt qu’un dispositif strictement interne.

    Un cadre de sécurité qui reste à construire

    Au-delà des intentions, la réussite de ces démarches dépendra de détails souvent déterminants : qui fixe les critères, comment sont conduits les tests, comment sont gérés les résultats sensibles et quelle place est donnée à l’indépendance des évaluateurs. Sans ces garde-fous, la sécurité de l’IA pourrait se retrouver fragilisée par des logiques de gouvernance difficilement compatibles avec l’objectif de protection du public.

  • Bientôt : Alex Batty a disparu à 11 ans – aujourd’hui, il raconte son histoire

    Bientôt : Alex Batty a disparu à 11 ans – aujourd’hui, il raconte son histoire


    À 11 ans, Alex Batty croyait partir en vacances. Le départ a pourtant pris une autre tournure : il disparaît et reste introuvable pendant six ans. Aujourd’hui, l’adolescent devenu adulte raconte son histoire, offrant un récit qui suscite de nombreuses questions sur les circonstances de sa disparition et les raisons de son retour.

    Une disparition au départ perçue comme un déplacement ordinaire

    Selon le témoignage rapporté, le jeune garçon n’imaginait pas que le voyage prévu se transformerait en rupture totale. À son âge, il n’est pas en mesure d’anticiper l’ampleur du danger ni la durée de son absence. Sa disparition interroge ainsi, dès le départ, sur ce qui a pu se passer avant la rupture du contact et sur les indices qui auraient pu permettre de mieux comprendre la situation.

    Six ans d’errance : comment l’histoire a pu se prolonger

    Le fait qu’Alex Batty ait disparu pendant six ans souligne la difficulté, pour l’entourage comme pour les autorités, d’agir quand l’information disponible est limitée. Dans ce type de situation, l’enjeu est souvent double : identifier rapidement les éléments concrets (lieu, temporalité, personnes en cause) et maintenir une vigilance capable d’intercepter d’éventuels signaux tardifs. Son récit met en lumière les conséquences durables qu’une telle absence peut entraîner sur la construction de l’identité, la stabilité et le vécu émotionnel.

    Le témoignage d’aujourd’hui : entre mémoire personnelle et besoin de vérification

    Quand une personne relate son parcours des années après les faits, le récit apporte une dimension humaine difficile à ignorer. Mais il appelle aussi, comme tout témoignage, à la prudence : certains détails peuvent relever de la perception d’un enfant, d’autres nécessitent d’être replacés dans un cadre plus large. Le rapport de l’histoire doit donc être lu comme un témoignage, susceptible d’éclairer des zones d’ombre, sans pour autant remplacer l’enquête ou les éléments vérifiables.

    Ce que cette affaire révèle sur la prévention

    Au-delà du cas d’Alex Batty, l’affaire rappelle l’importance de la vigilance et de la rapidité lors des disparitions d’enfants. Plusieurs facteurs peuvent complexifier les recherches : changements de lieux, absence de preuves immédiates, ou difficulté à retracer les itinéraires. Dans un contexte pratique, certains équipements peuvent contribuer à limiter les zones de risque lorsqu’un enfant est amené à se déplacer, par exemple via un traceur GPS pour enfant ou une montre connectée avec localisation adaptée à l’âge et aux conditions d’utilisation.

    Une histoire qui appelle des réponses sans céder à la spéculation

    Le récit d’Alex Batty remet sur le devant de la scène une disparition restée longtemps sans issue claire. Il offre un aperçu du vécu de l’intéressé et de la manière dont une rupture de contact peut se prolonger. Toutefois, tant que les faits ne sont pas établis avec précision, il est essentiel de distinguer ce qui relève du témoignage de ce qui doit encore être confirmé. Les prochaines étapes, qu’elles soient judiciaires ou documentaires, détermineront dans quelle mesure l’histoire racontée permettra de mieux comprendre ce qui s’est réellement passé.

  • Le rallye historique de l’or et de l’argent pourrait reprendre alors que le « brouillard de la guerre » se dissipe

    Le rallye historique de l’or et de l’argent pourrait reprendre alors que le « brouillard de la guerre » se dissipe


    Après une séquence marquée par de forts sommets en 2025, l’or et l’argent connaissent en 2026 une trajectoire plus heurtée. Jeudi, les cours ont toutefois rebondi, portés par l’espoir que le dossier nucléaire entre les États-Unis et l’Iran pourrait se rapprocher d’un accord, ce qui ferait retomber la prime de risque liée au conflit.

    Des prix soutenus par l’apaisement potentiel

    En début de séance, l’or au comptant a progressé d’environ 1,2%, vers 4 750 dollars l’once, dans un contexte nourri par l’idée d’une sortie progressive de la guerre de près de trois mois. Les contrats à terme sur l’or suivent la tendance, avec un mouvement comparable autour de la même zone.

    L’argent, plus sensible aux variations de sentiment et aux flux spéculatifs, a surperformé : l’or gris a gagné environ 3% à un peu plus de 79 dollars l’once, tandis que l’argent pour livraison à juillet a enregistré une hausse plus marquée, dépassant 3,5%.

    Ces réactions s’expliquent généralement par la manière dont les marchés ajustent rapidement la valeur des actifs “refuge”. Si la perspective d’un accord réduit les tensions, une partie de la demande de couverture peut diminuer. À l’inverse, des investisseurs peuvent revenir sur les métaux précieux une fois la visibilité améliorée, ce qui peut soutenir les cours.

    Après les sommets de 2025, une normalisation difficile en 2026

    Or et argent ont fortement progressé en 2025, avec des gains importants sur l’année. Mais en 2026, la volatilité s’est accentuée : l’argent a subi une forte baisse au cours du dernier mois de janvier, sa plus forte chute sur une journée depuis plusieurs décennies, et l’or a cédé une partie de son niveau atteint en début d’année.

    Selon plusieurs intervenants du secteur, cette inflexion est liée au fait que l’or a été confronté à des facteurs qui contredisent parfois son rôle de “valeur refuge”. Parmi eux : l’anticipation de taux d’intérêt plus élevés, un dollar plus ferme, et des prises de bénéfices après une hausse jugée trop rapide. Dans un tel contexte, même les achats de sécurité peuvent être moins prioritaires que les arbitrages liés au coût du capital.

    L’or et l’argent ont par ailleurs montré une corrélation plus visible avec les marchés actions durant certaines périodes, notamment lorsque l’inquiétude dominante concernait le niveau futur des taux.

    Ce que pourrait changer un accord de paix

    Le discours du marché est désormais centré sur un scénario : si “l’atmosphère de guerre” s’éclaircit, la mécanique qui a propulsé or et argent pourrait se modifier, mais pas nécessairement s’inverser brutalement. L’idée défendue par plusieurs stratégistes est que la baisse récente ressemble davantage à une phase de consolidation qu’à la fin d’un cycle haussier de fond.

    Parmi les leviers évoqués figure la demande structurelle des banques centrales et des gouvernements qui continuent, selon cette lecture, à diversifier leurs réserves en réduisant l’exposition aux titres du Trésor américain. À cela s’ajoute l’argument de la protection contre l’inflation et la nécessité de conserver des “actifs réels”.

    Concernant l’argent, la thèse met aussi en avant une tension persistante sur le marché physique, alimentée par des usages industriels. L’argent est en effet largement utilisé dans des technologies liées à l’électronique et aux énergies renouvelables, notamment le solaire, tandis que les prévisions de demande associée à certains secteurs industriels restent un soutien potentiel.

    Scénarios pour l’or et l’argent

    Si un accord est conclu et que le risque macroéconomique se normalise, l’amélioration de la confiance pourrait soutenir l’argent via une demande industrielle plus dynamique et un appétit accru pour le risque. À l’inverse, en cas d’échec des négociations, l’or pourrait profiter en premier lieu d’un retour de la prime de refuge, même si l’argent, en raison de la structure plus tendue de son marché physique, pourrait ensuite rattraper une partie du retard.

    En pratique, la trajectoire dépendra surtout de l’évolution des anticipations de taux et du dollar, ainsi que de la confirmation (ou non) d’un apaisement durable entre les parties.

    Repères pratiques

    Pour les particuliers qui souhaitent suivre ou se constituer une exposition aux métaux précieux de manière encadrée, certains préfèrent des produits adossés au physique, comme des pièces ou lingots conditionnés. À titre indicatif, vous pouvez comparer des options telles que des lingots d’argent d’1 once ou des pièces en or bullion pour comprendre les formats, primes et contraintes de stockage.

  • Cinq architectes de l’économie de l’IA expliquent d’où viennent les dysfonctionnements

    Cinq architectes de l’économie de l’IA expliquent d’où viennent les dysfonctionnements


    Cinq responsables impliqués à chaque niveau de la chaîne de valeur de l’intelligence artificielle se sont penchés, lors d’un échange à la Milken Global Conference, sur un constat qui s’impose : les limites ne sont pas seulement logicielles. Elles s’expriment aussi dans la production des puces, dans l’énergie disponible, dans l’accès aux données du monde réel et, plus largement, dans la manière dont les États entendent contrôler des systèmes capables d’agir physiquement.

    Sur scène, ils ont aussi évoqué l’architecture même de l’IA, la question de la confiance lorsque des systèmes agissent pour le compte des entreprises, ainsi que l’impact possible sur la génération qui utilisera ces outils au quotidien.

    Des goulots d’étranglement plus précoces que prévu

    Le premier frein est tangible : les puces. Le dirigeant d’ASML a souligné que, malgré l’accélération des capacités industrielles, le marché pourrait rester sous-approvisionné sur plusieurs années. Autrement dit, les grands acheteurs de puissance de calcul pourraient ne pas obtenir l’intégralité de ce qu’ils anticipent, malgré les investissements consentis.

    La demande, elle, ne faiblit pas. Le responsable de Google Cloud a rappelé la dynamique de croissance de son activité et l’ampleur des engagements en attente de livraison. Son message était clair : l’appétit pour l’infrastructure IA est bien réel.

    Pour certains usages, la limite n’est pas le silicium, mais le monde. Un autre intervenant, spécialisé dans l’autonomie pour véhicules et robots, a expliqué que la difficulté principale réside dans la collecte de données issues d’environnements réels. Les simulations sont utiles, mais elles ne remplacent pas totalement l’observation directe : selon lui, l’entraînement “du monde physique” à grande échelle à partir de données purement synthétiques prendra du temps.

    L’énergie : le prochain verrou structurel

    Après les puces, l’enjeu énergétique. La discussion a convergé vers un point : davantage de calcul signifie davantage de consommation, donc davantage de contraintes. L’exploration de sites de data centers dans l’espace a été évoquée comme une piste sérieuse, même si sa mise en œuvre implique de nombreux défis techniques, notamment pour l’évacuation de la chaleur.

    Plus largement, plusieurs intervenants ont défendu l’idée que l’intégration “de bout en bout” peut améliorer l’efficacité. En concevant ensemble le matériel et la manière d’exécuter les modèles, les systèmes peuvent optimiser le rapport performance/énergie. Mais le message final reste prudent : l’efficacité ne supprime pas la réalité du coût énergétique.

    Vers de nouveaux modèles d’intelligence

    Certains acteurs déplacent le centre de gravité. Là où une partie de l’écosystème se concentre sur l’échelle et l’optimisation des modèles de langage, une entrepreneure issue de la physique a présenté une approche différente, basée sur des modèles cherchant à capturer des règles plutôt qu’à prédire la suite de tokens.

    Son argument est que la “compréhension” utile à des systèmes immergés dans le réel pourrait nécessiter une logique plus proche des mécanismes physiques que des corrélations linguistiques. Elle affirme aussi concevoir des systèmes capables d’actualiser leurs connaissances en fonction des données, sans repartir de zéro à chaque changement massif.

    Agents numériques et garde-fous en entreprise

    L’IA passe du “outil” au “collaborateur”. Un dirigeant de Perplexity a décrit l’évolution de son offre vers ce qu’il appelle un “travailleur numérique”, conçu pour exécuter des tâches à la place d’un utilisateur, sous sa supervision.

    Cette vision soulève immédiatement la question du contrôle. La réponse a mis en avant un principe : la granularité des autorisations. Les administrateurs peuvent limiter l’accès à des connecteurs ou des outils, et distinguer ce qui peut être lu de ce qui peut être modifié. Lorsque l’agent agit, il doit généralement proposer un plan et solliciter une validation préalable, afin de réduire les risques dans les environnements sensibles.

    Souveraineté et IA physique

    La géopolitique change avec le passage au physique. Un intervenant a insisté sur le fait que l’IA embarquée dans des véhicules autonomes, des drones ou des machines industrielles n’est pas perçue comme un simple logiciel. Elle touche directement à la sécurité nationale, aux données collectées et à la responsabilité des systèmes opérant sur un territoire.

    Dans ce contexte, le contrôle ne relève pas seulement de la cybersécurité ou de la conformité. Il devient aussi une question de souveraineté : selon lui, peu de pays disposent des capacités nécessaires pour déployer une intelligence physique avancée tout en maîtrisant ses dépendances technologiques.

    Une question de génération : créativité ou déclin du jugement ?

    L’échange a fini par une interrogation plus existentielle : les outils IA vont-ils fragiliser la pensée critique des prochaines générations ? Les intervenants se sont montrés plutôt confiants, en soulignant que ces technologies pourraient aussi accélérer la résolution de problèmes complexes — santé, climat, infrastructures — que les sociétés n’ont pas su traiter faute de moyens, de coordination ou de puissance de calcul.

    Ils ont aussi apporté une nuance pratique : même si certaines tâches d’entrée de gamme peuvent se transformer ou disparaître, l’accès à des outils capables de lancer des projets reste, selon eux, plus démocratisé que jamais. Enfin, concernant l’impact sur le travail, un intervenant a distingué le savoir-faire intellectuel, susceptible d’être automatisé, du travail physique souvent lié à des pénuries et à une moindre attractivité de certains métiers. Dans ces secteurs, l’IA physique serait plutôt appelée à combler des manques déjà présents.

    Ce que ces échanges révèlent, au-delà des personnalités

    Au total, la discussion met en évidence une tendance : l’économie de l’IA ne bute plus uniquement sur les performances des modèles. Elle se heurte à des contraintes industrielles (production de puces), à des limites physiques (énergie, refroidissement, chaleur), à des réalités opérationnelles (données du monde réel) et à des enjeux sociétaux et politiques (contrôle, sécurité, souveraineté). Dans ce cadre, l’innovation progresse moins par “effet magique” que par ajustement simultané des technologies, des infrastructures et des règles d’usage.

    Pour suivre l’évolution de ces sujets côté matériel, certains lecteurs se tournent aussi vers des solutions de calcul et de gestion de l’énergie adaptées aux environnements de serveurs. Par exemple, un onduleur pour serveurs peut être utile pour comprendre l’importance de la continuité d’alimentation, souvent sous-estimée dans les discussions sur la puissance de calcul. Côté stockage et accès aux données, un SSD NVMe orienté entreprise pour station de travail illustre aussi comment la performance et la disponibilité des données deviennent un paramètre central lorsque les systèmes IA s’industrialisent.

  • Elgin City suspend Allan Hale, son entraîneur, dans le cadre d’une enquête

    Elgin City suspend Allan Hale, son entraîneur, dans le cadre d’une enquête


    Le club écossais d’Elgin City a annoncé la suspension de son manager de l’équipe première, Allan Hale, « avec effet immédiat », dans l’attente d’une enquête en cours. La direction indique ne faire aucun autre commentaire tant que les investigations n’ont pas abouti, laissant planer l’incertitude sur la nature exacte des faits examinés.

    Une suspension en attendant l’enquête

    Dans un communiqué publié sur son site, Elgin City précise que la procédure est toujours en cours et que le club ne souhaite pas davantage s’exprimer pour le moment. Cette annonce intervient alors que l’organisation cherche à préserver la neutralité du dossier, dans un contexte où les informations sont, à ce stade, limitées.

    Fin de saison contrastée

    La décision intervient quelques jours après la fin de la saison sportive. Elgin City a terminé à la sixième place du quatrième échelon écossais, avec un parcours marqué par une série sans victoire lors des cinq dernières rencontres. Le club a notamment subi une défaite 1-0 à domicile contre Stranraer, classé cinqième.

    Sur le plan du calendrier, la suspension du manager survient également dans la foulée d’une séquence de mouvements au sein de l’effectif, annoncés séparément.

    Prolongations, départ au poste de gardien et libérations

    La veille de l’annonce, le club a communiqué des prolongations de contrats pour le défenseur Miko Virtanen et le milieu Brian Cameron. Dans le même temps, le gardien Thomas McHale a quitté Elgin City pour rejoindre le club de Nairn County, un transfert après huit ans au Borough Briggs. Enfin, six autres joueurs ont été libérés.

    Allan Hale en poste depuis décembre 2023

    Allan Hale a pris en charge Elgin City en décembre 2023. Âgé de 38 ans, il avait été nommé avec son adjoint Stefan Laird le 5 décembre, alors que le club se trouvait dans une position délicate, proche de la zone de relégation en League 2. Le technicien avait toutefois permis au club de sécuriser son avenir sportif en finissant sixième à l’issue de la saison.

    Auparavant, il avait dirigé des clubs du Highland League, notamment Huntly et Keith, avant ses dernières responsabilités à Elgin City.

    En coulisses, cette suspension place désormais le staff et les joueurs dans une période d’ajustement, le temps de clarifier les éléments liés à l’enquête.

    Pour les observateurs qui suivent l’actualité du club et des compétitions écossaises, certains privilégient aussi des radios ou récepteurs audio pour suivre les retransmissions quand les mises à jour se multiplient. D’autres recherchent un support compact pour consulter les classements et calendriers pendant les journées de match.

  • L’UE envisage de limiter l’usage du cloud américain pour les données sensibles du gouvernement : selon des sources

    L’UE envisage de limiter l’usage du cloud américain pour les données sensibles du gouvernement : selon des sources


    Des drapeaux de l’Union européenne devant le Parlement européen.

    L’Union européenne envisage de durcir les règles encadrant l’usage de services cloud américains pour le traitement de données sensibles détenues par les administrations publiques. Des échanges en ce sens seraient en cours au sein de la Commission, dans le cadre d’un futur paquet de mesures visant à renforcer la « souveraineté » européenne sur les technologies clés.

    Vers des restrictions pour certains secteurs publics

    Selon des informations liées aux discussions, la Commission prépare un ensemble de propositions qui pourrait limiter l’exposition des données sensibles du secteur public à des plateformes de cloud situées en dehors de l’Union européenne. L’objectif serait d’augmenter l’autonomie stratégique du bloc dans des domaines numériques considérés comme critiques.

    Une idée centrale ressortirait : définir des secteurs où l’hébergement devrait relever de capacités cloud européennes. Dans ce schéma, les fournisseurs de cloud basés dans des pays tiers — y compris les entreprises américaines — pourraient être concernés, mais pas nécessairement exclus des marchés publics.

    Les discussions n’iraient pas jusqu’à interdire totalement les solutions de fournisseurs étrangers dans les contrats publics. Elles porteraient plutôt sur l’usage de ces infrastructures pour le traitement de données sensibles, avec un niveau de contrainte modulé selon la criticité des informations.

    Les données financières, judiciaires et de santé figureraient parmi les catégories susceptibles d’exiger une infrastructure cloud dite « souveraine ». Les échanges indiquent toutefois que ces réflexions ne viseraient pas les entreprises du secteur privé.

    Un paquet « souveraineté technologique » encore en préparation

    Le dispositif envisagé s’inscrirait dans le « Tech Sovereignty Package », dont la présentation par la Commission est attendue. Une partie des mesures devrait aussi s’appuyer sur d’autres textes destinés à soutenir le développement d’offres européennes, notamment dans le cloud et l’intelligence artificielle, ainsi que sur des initiatives de soutien à la filière des semi-conducteurs.

    Avant toute application, le paquet devrait être validé par l’ensemble des 27 États membres. En pratique, le contenu exact des obligations et la façon de les traduire dans les marchés publics restent donc encore à préciser.

    Du côté de la Commission, l’orientation générale serait de favoriser davantage les offres cloud « souveraines », notamment via la commande publique, et de contribuer à diversifier les prestataires accessibles aux institutions européennes.

    Contexte : dépendance aux fournisseurs américains et préoccupations transatlantiques

    La question se pose d’autant plus que, dans de nombreux cas, les administrations européennes recourent déjà à des services cloud fournis par des acteurs étrangers, souvent américains, en raison de la place dominante de ces fournisseurs sur le marché. Cette utilisation peut viser des données très sensibles, notamment dans les domaines de la santé et de la finance, dans le respect des règles existantes.

    La demande de réexamen s’est renforcée ces derniers mois avec la hausse des tensions entre l’UE et Washington. Un point de vigilance fréquemment évoqué concerne la possibilité pour les autorités américaines d’accéder à des données d’utilisateurs détenues par des entreprises basées aux États-Unis, y compris lorsque les informations sont stockées ailleurs.

    Dans ce contexte, plusieurs États membres ont annoncé des efforts pour identifier des alternatives européennes ou davantage « ouvertes », et pour accroître leurs budgets liés à la souveraineté numérique. Des initiatives de déploiement d’outils et de services publics plus directement contrôlés par des acteurs nationaux seraient également en cours.

    Parallèlement, des marchés publics européens ont déjà été attribués à des projets de cloud qualifiés de « souverains », avec l’ambition de rapprocher les capacités techniques des exigences du secteur public.

    Produits et solutions : sur quels choix s’appuyer ?

    Pour les organisations publiques qui cherchent à mieux structurer leur modèle d’hébergement et de conformité, les offres de gestion d’infrastructure et de supervision peuvent aider à cadrer les exigences (traçabilité, contrôle des accès, continuité). À titre d’exemples discrets, certaines équipes se tournent vers des solutions de chiffrement et gestion de la protection des données adaptées à des environnements multi-acteurs.

    La planification des environnements hybrides (cloud + ressources internes) peut aussi s’appuyer sur des outils de pilotage et d’administration du cloud hybride, afin de faciliter la gouvernance lorsque les règles d’hébergement évoluent.

  • Cour suprême invalide la règle de la FCC sur la non-discrimination, contestée par les fournisseurs d’accès à Internet

    Cour suprême invalide la règle de la FCC sur la non-discrimination, contestée par les fournisseurs d’accès à Internet



    La Cour d’appel du 8e circuit a invalidé des règles de la FCC (Federal Communications Commission) visant à lutter contre la discrimination dans l’accès au haut débit. Contestées par des acteurs du secteur des télécommunications et du câble, ces dispositions étaient fondées sur l’idée que certaines pratiques, même sans intention discriminatoire, pouvaient avoir des effets défavorables sur des catégories de population protégées.

    Une définition centrée sur les effets sur les consommateurs

    La FCC définissait la discrimination liée au haut débit comme des « politiques ou pratiques » non justifiées par des contraintes techniques ou économiques réelles, susceptibles d’avoir des effets différents sur l’accès au service selon le niveau de revenu, la race, l’origine ethnique, la couleur, la religion ou l’origine nationale. Le texte visait également des situations où ces impacts différenciés seraient recherchés, ou prévisibles, même en l’absence de critères ouvertement discriminatoires.

    Les règles ne s’adressaient pas uniquement aux fournisseurs d’accès à Internet. Elles concernaient aussi d’autres acteurs susceptibles de limiter l’accès égalitaire, notamment certains propriétaires immobiliers. La FCC indiquait que l’action d’entités autres que les opérateurs pouvait entraver l’accès au haut débit sur la base de critères prévus par la loi.

    Une contestation devant plusieurs juridictions

    Les dispositions de la FCC ont fait l’objet de recours devant plusieurs cours fédérales d’appel. Des organisations représentant des intérêts du secteur, notamment des acteurs du câble, du sans-fil et des fournisseurs d’accès, ont contesté ces mesures. Le dossier a ensuite été attribué à la 8e circuit.

    Des groupes défendant, à l’échelle des États, les intérêts des fournisseurs d’accès ont également soulevé des objections, ainsi que des organisations liées au logement locatif et à des entreprises intervenant dans le déploiement de réseaux haut débit.

    La cour critique la portée “sans intention” de la règle

    Les juges du 8e circuit ont estimé que la règle fédérale couvrait la « discrimination non intentionnelle », autrement dit la notion d’« impact différentiel » : une politique présentée comme neutre en apparence, ou justifiée par des motifs non discriminatoires, mais produisant néanmoins des effets disproportionnés sur un groupe protégé.

    Selon la décision, le Congrès n’aurait pas autorisé une responsabilité fondée sur ces effets dans le cadre de la loi ayant donné mandat à la FCC, l’Infrastructure Investment and Jobs Act. La cour a relevé que le texte exigeait l’adoption de règles « visant à prévenir la discrimination numérique d’accès » selon les critères mentionnés, en rappelant par ailleurs que, dans la jurisprudence américaine, la définition “normale” de la discrimination renvoie classiquement à un traitement différencié.

    Des conséquences possibles pour la régulation du haut débit

    En pratique, ce type de contentieux illustre la tension entre deux approches : mesurer des discriminations à partir des résultats observés, ou se limiter à des actes caractérisés par un traitement différencié. Le rejet d’une règle basée sur les “impacts” pourrait réduire la marge de manœuvre réglementaire de la FCC dans les dossiers où l’effet sur certains publics est avancé sans preuve d’intention.

    Pour les consommateurs et les acteurs du secteur, l’enjeu reste la même : garantir l’accès au haut débit tout en respectant les limites juridiques fixées par la législation. Les opérateurs peuvent aussi être amenés à revoir leurs politiques et leurs procédures de déploiement ou d’orientation commerciale.

    En parallèle, les utilisateurs qui cherchent à mieux comprendre leurs choix d’accès peuvent s’appuyer sur des outils de diagnostic réseau. Par exemple, un testeur réseau Ethernet peut aider à identifier des problèmes de connexion qui ne relèvent pas de la politique commerciale, mais de la qualité du lien ou de l’infrastructure.

    Du côté matériel, un routeur Wi‑Fi 6 peut améliorer la stabilité du Wi‑Fi à domicile et faciliter des comparaisons concrètes entre fournisseurs, surtout lorsqu’un logement n’a pas le même niveau d’équipement ou de performance selon les zones.

  • Le but de Harry Kane pourrait offrir à l’Allemagne une place supplémentaire en Ligue des champions

    Le but de Harry Kane pourrait offrir à l’Allemagne une place supplémentaire en Ligue des champions


    La dernière ligne droite de la saison européenne pourrait offrir à l’Allemagne une marge supplémentaire en Ligue des champions. Tout se joue notamment autour des coefficients UEFA, où un détail, comme le but d’Harry Kane, peut peser sur le classement final entre grandes ligues.

    Le duel d’avant-matches en demi-finales

    Avant les matchs retour de jeudi, l’Allemagne se trouve dans une position très serrée derrière l’Espagne au classement des pays (via les coefficients UEFA). En clair, la différence est si faible que chaque performance compte.

    Pour l’Allemagne, le club restant est Fribourg, engagé contre Braga. Fribourg doit renverser un déficit de 2-1 sur sa pelouse.

    Côté Espagne, Rayo Vallecano conserve un avantage de 1-0 avant de se déplacer en France, contre Strasbourg.

    Comment le but de Kane peut faire basculer un siège

    Le scénario évoqué tient à la façon dont les points supplémentaires pourraient être attribués aux ligues. Si Fribourg l’emporte et se qualifie pour la finale, l’Allemagne engrangerait un bonus de points d’environ 0,428 sur le coefficient. Dans le même temps, si Rayo Vallecano ne parvient pas à faire la différence en France, la Liga n’ajouterait pas de points suffisants pour consolider sa position.

    Dans ce cas précis, l’Allemagne pourrait confirmer sa deuxième place, mais avec une avance extrêmement faible, de l’ordre de 0,00446 de point de coefficient. À l’inverse, sans le but de Kane tel qu’il est pris en compte dans le calcul, l’Allemagne se retrouverait alors avec un retard d’environ 0,13889 sur l’Espagne.

    Autres combinaisons possibles pour l’attribution de la place

    Les calculs de coefficients dépendent aussi des autres résultats possibles lors des demi-finales. Plusieurs issues sont susceptibles d’influencer l’attribution du siège supplémentaire :

    • Si Rayo Vallecano remporte son match, l’Espagne sécurise l’accès supplémentaire, quelle que soit l’issue du match de Fribourg.

    • Si les deux équipes sont éliminées, l’Espagne récupère la place additionnelle.

    • Si les deux équipes se qualifient et que Rayo Vallecano fait match nul, la décision pourrait alors être renvoyée à la finale.

    En Allemagne et en Espagne : des enjeux internes aussi décisifs

    Au-delà de la bataille de coefficient, le championnat allemand reste tendu pour l’accès à la Ligue des champions. Une lutte à trois s’observe entre Leverkusen, Stuttgart et Hoffenheim, tous trois comptant 58 points avec deux matchs à jouer. Sans la place liée aux coefficients (EPS), un seul des trois pourrait basculer en Ligue des champions.

    En Espagne, la dynamique est plus lisible : Betis occupe une position nette à la cinquième place, avec six points d’avance sur Celda Vigo à quatre journées de la fin.

    Pour suivre ce type d’enjeux de calendrier et les repères de match, certains supporters s’appuient aussi sur des outils pratiques : par exemple, un montre de sport avec fonctions GPS peut aider à organiser les horaires de visionnage lors des soirées chargées. À l’échelle du foyer, un téléviseur 4K compatible avec un mode de jeu améliore le confort de visionnage pour les rencontres à enjeu.

  • Rheinmetall chute de 2% après une publication des résultats du T1 inférieure aux attentes, avec un carnet de commandes record à 73 milliards d’euros


    Le groupe allemand Rheinmetall a vu son titre reculer d’environ 2% après la publication de ses résultats trimestriels. Si les revenus et la dynamique d’activité restent soutenus, le marché a surtout réagi à des bénéfices trimestriels inférieurs aux attentes, tout en observant la consolidation d’un carnet de commandes qui atteint un niveau record, selon les informations communiquées.

    Des profits en retrait par rapport aux attentes

    Sur le premier trimestre, Rheinmetall a annoncé un résultat qui n’a pas pleinement répondu aux anticipations du marché. Cette déception relative a pesé sur la valorisation à court terme, malgré un contexte favorable pour les industriels de la défense en Europe.

    Dans ce type de situation, la réaction boursière reflète généralement l’écart entre les projections des analystes et la performance effective, ainsi que la perception de la trajectoire de rentabilité pour les trimestres suivants.

    Un carnet de commandes à un niveau record

    Le point central des résultats tient toutefois au carnet de commandes. Rheinmetall fait état d’un backlog de l’ordre de 73 milliards d’euros, franchissant un nouveau sommet. Un tel niveau suggère une visibilité accrue sur l’activité et peut soutenir les perspectives industrielles, notamment dans les livraisons et les programmes en cours.

    Un carnet élevé ne garantit pas, à lui seul, la performance financière immédiate. Les marges peuvent évoluer selon le mix des contrats, le rythme des livraisons et la montée en cadence. Néanmoins, la tendance à l’accumulation de commandes est souvent interprétée comme un signal de maintien de la demande.

    Ce que révèle la dynamique du secteur

    La défense européenne reste marquée par des investissements structurels, portés par la nécessité de moderniser les capacités et de sécuriser des chaînes d’approvisionnement. Pour des acteurs comme Rheinmetall, la question clé devient la capacité à transformer ce carnet en livraisons effectives tout en préservant la rentabilité.

    • La conversion du backlog en chiffre d’affaires sur plusieurs trimestres.
    • La maîtrise des coûts liés à l’augmentation des volumes et des délais industriels.
    • La gestion des priorités entre les différents programmes et segments.

    En parallèle, les investisseurs surveillent l’évolution des indicateurs de profitabilité et les perspectives formulées par la direction, afin d’évaluer si le décalage observé au premier trimestre pourrait être un phénomène temporaire.

    Lecture globale pour les investisseurs

    La baisse du cours, malgré un backlog record, traduit une appréciation nuancée : la visibilité progresse, mais le marché attend une amélioration ou au minimum une stabilité des résultats bénéficiaires. À ce stade, l’enjeu est de déterminer si l’écart de profit s’explique par un calendrier de production, un mix de contrats ou des facteurs transitoires.

    Pour un investisseur qui s’intéresse au secteur, il peut être utile de suivre de près les futurs communiqués et la cadence des livraisons, car c’est souvent là que se clarifie la trajectoire des marges.

    Dans une logique d’optimisation du suivi d’informations, certains lecteurs complètent leurs notes avec un ordinateur portable léger afin de garder une veille régulière sur les indicateurs financiers et opérationnels. Pour le suivi des données en atelier ou à domicile, un bloc-notes ou carnet de prise de notes peut aussi aider à structurer les points clés au fil des publications.