Catégorie : Technologie

  • Angry Birds et FIFA : une entrée au Hall of Fame des jeux vidéo mondiaux

    Angry Birds et FIFA : une entrée au Hall of Fame des jeux vidéo mondiaux


    Le Strong National Museum of Play a dévoilé la cuvée 2026 de son World Video Game Hall of Fame. Quatre titres emblématiques y font leur entrée : Angry Birds, Silent Hill, Dragon Quest et FIFA International Soccer. Un choix qui illustre, une nouvelle fois, l’influence durable de jeux capables de marquer plusieurs générations de joueurs.

    Une sélection qui traverse les époques

    Depuis le lancement du Hall of Fame en 2009, l’objectif est de distinguer des jeux qui ont façonné la culture vidéoludique, à la fois par leur popularité et par leurs apports créatifs. La classe 2026 rassemble des œuvres issues de styles et d’industries différentes, mais reliées par un même impact.

    Angry Birds, signé Rovio, illustre notamment la montée en puissance du jeu mobile : le principe simple d’un lance-balles projetant des oiseaux sur des structures fragiles a connu un succès massif, devenu un modèle de gameplay accessible et addictif.

    Silent Hill, de Konami, représente de son côté l’un des tournants majeurs du jeu vidéo d’horreur. Son approche psychologique, fondée sur l’atmosphère et la narration, a contribué à installer une formule qui inspirera durablement l’ensemble du genre.

    Dragon Quest renvoie à une histoire plus ancienne encore. Sorti en 1986, le jeu publié par Enix—aujourd’hui intégré à Square Enix—a aidé à poser des codes clés du jeu de rôle moderne.

    Le cas FIFA International Soccer : un socle pour le sport

    Parmi les quatre entrées, FIFA International Soccer occupe une place particulière. Lancé en 1993, le jeu est présenté comme l’origine de la grande série FIFA d’Electronic Arts. Cette franchise est restée longtemps dominante sur le marché des jeux de sport, même si son statut de licence a évolué au fil des années.

    En intégrant ce titre, le Hall of Fame met en lumière une influence qui dépasse le simple cadre d’un jeu : FIFA International Soccer a contribué à structurer une attente des joueurs autour de la simulation sportive, de la progression annuelle et des grands standards de production.

    Une cuvée qui s’ajoute à une liste déjà très fournie

    La sélection de cette année s’inscrit dans un ensemble plus large : les nouveaux élus viennent rejoindre 49 autres jeux déjà reconnus par le musée, formant une histoire plus complète des influences qui ont compté. Autour de cette classe 2026, d’autres titres ont aussi été considérés pour la shortlist, notamment Frogger, Galaga, League of Legends, Mega Man, PaRappa the Rapper, RuneScape, The Elder Scrolls V: Skyrim et Tokimeki Memorial.

    Pour les amateurs qui aiment garder une trace des grandes références vidéoludiques, un livre de référence sur l’histoire des jeux vidéo peut être un bon complément, tout en offrant un contexte sur les périodes évoquées par ces œuvres.

    À l’échelle d’une collection plus orientée gameplay et franchises, un contrôleur rétro type arcade permet aussi de rejouer des titres aux mécaniques fondatrices, souvent associées à la nostalgie de séries comme Galaga ou Frogger.

    Avec ces intronisations, le Hall of Fame renforce l’idée que l’histoire du jeu vidéo ne se résume pas à des tendances : elle se construit aussi à travers des œuvres devenues des repères, capables d’inspirer des générations et de transformer durablement les habitudes de jeu.

  • La Porsche Taycan vous semble trop lente sur le Nürburgring ? Découvrez le kit Manthey.

    La Porsche Taycan vous semble trop lente sur le Nürburgring ? Découvrez le kit Manthey.


    Le Nürburgring ne pardonne pas : même une sportive électrique aussi aboutie que la Porsche Taycan Turbo GT peut paraître en retrait face aux exigences du tracé, notamment en termes d’appui aérodynamique, de freinage et de stabilité à haute vitesse. Le kit Manthey vise précisément à corriger ces points, en transformant la Taycan Turbo GT équipée du pack Weissach en une machine plus orientée chronomètre, avec des réglages pensés pour la Nordschleife.

    Un gain d’appuis marquant à haute vitesse

    La version Turbo GT avec pack Weissach produit déjà un niveau d’appui important : à 200 km/h (124 mph), elle génère environ 95 kg de force d’appui. Avec le kit Manthey, l’appui grimpe nettement, jusqu’à environ 290 kg à cette même vitesse.

    À l’extrémité haute du circuit, l’effet est encore plus spectaculaire : au-delà de 309 km/h (192 mph), la Taycan équipée du kit Manthey atteint environ 740 kg d’appui, afin de plaquer la voiture plus efficacement à la route lors des phases rapides.

    Freinage et comportement revus pour la Nordschleife

    Le kit ne se limite pas à l’aérodynamique. Manthey apporte aussi des améliorations liées à la tenue et à la constance en conditions intensives. Le système de freinage reçoit des freins plus volumineux, accompagnés de plaquettes orientées performance, dans le but de mieux soutenir l’allure sur les zones de décélération fréquentes à la Nordschleife.

    Sur le plan dynamique, la voiture s’appuie sur un réglage revu, intégrant l’suspension pneumatique adaptative et la direction des roues arrière (rear axle steering). L’objectif affiché est d’améliorer la stabilité, notamment quand l’auto est engagée et lors des freinages.

    Une optimisation du groupe motopropulseur

    Le kit Manthey travaille également la partie électrique. Le courant maximal progresse de 30%, avec un total porté à 1 300 A. Cela se traduit par une augmentation de la puissance nominale d’environ 26 ch (20 kW), pour atteindre 804 ch (600 kW).

    Une fonction “Attack mode”, inspirée des pratiques vues en Formula E où Porsche a connu plusieurs réussites, porte la puissance à 978 ch (730 kW) pendant 10 secondes. En lancement contrôlé, la puissance maximale reste identique à celle du pack Weissach, autour de 1 019 ch (760 kW), mais le couple de pointe augmente d’environ 30 Nm à 1 270 Nm.

    Un retour au premier plan sur le tour électrique

    Dans l’ensemble, l’approche Manthey combine appuis plus élevés, freinage plus adapté et gains de puissance maîtrisés, dans une logique de performance “circuit”. L’équipe met aussi en avant une amélioration du temps au tour, avec l’idée de ramener à Porsche la référence de la Nordschleife parmi les véhicules électriques.

    À titre de repère, une référence EV plus récente a été établie par BYD avec un tour autour de 6 min 59 s au volant de la Yangwang U9. Et, au classement absolu des électriques, les records restent encore détenus par des machines et des configurations radicales, comme la Volkswagen ID.R conduite par Romain Dumas.

    Quelles solutions “pratiques” pour rouler plus sérieux ?

    Pour les propriétaires qui cherchent à exploiter une Taycan Turbo GT dans des conditions de piste, deux choix reviennent souvent : le bon moniteur de pression et le bon suivi de la température lors de sessions prolongées. Sans garantir des résultats identiques au Nürburgring, ces accessoires aident à mieux préparer et surveiller la voiture.

    Prix et positionnement

    Le tarif du kit n’a pas été communiqué ici. En revanche, la base Porsche Taycan Turbo GT avec pack Weissach est annoncée à partir de 243 700 $. L’intérêt du kit Manthey se comprend surtout comme une montée en gamme “piste”, pensée pour rendre la voiture plus stable et plus efficace sur les sections rapides et lors des freinages répétés.

  • Téléchargement : comment la technologie transforme la PMA et l’essor du solaire sur balcon

    Téléchargement : comment la technologie transforme la PMA et l’essor du solaire sur balcon


    Entre l’IA qui accélère la demande en puissance de calcul, les tensions autour de la gouvernance des grandes entreprises technologiques et les avancées de la robotique, le secteur semble entrer dans une nouvelle phase. En parallèle, des sujets plus “terrain” gagnent en visibilité, comme la montée en puissance de l’énergie solaire sur les balcons et les usages concrets de l’informatique pour des domaines sensibles. Voici une synthèse de ce qui marque l’actualité et ce que cela peut changer à moyen terme.

    Des alliances pour absorber la demande en calcul

    La course à l’IA ne se limite plus aux algorithmes : elle dépend aussi de l’accès aux puces et aux capacités de calcul. Dans ce contexte, des partenariats entre acteurs majeurs se dessinent pour répondre à une demande en forte croissance. Le ciblage porte notamment sur l’augmentation de l’accès aux outils logiciels et l’amélioration de la capacité à exécuter des tâches plus ambitieuses, avec des engagements qui peuvent aussi influencer la feuille de route d’infrastructures au-delà des centres de données classiques.

    Pour suivre concrètement l’enjeu “matériel + usage”, certains foyers explorent déjà des solutions de stockage et de gestion énergétique qui complètent l’usage numérique quotidien. Par exemple, un générateur solaire portable peut intéresser ceux qui veulent sécuriser l’alimentation de petits équipements, en attendant des installations plus structurées.

    Gouvernance, confiance et rivalités dans l’écosystème IA

    Sur le plan institutionnel, les débats autour de la confiance et de la transparence prennent de l’ampleur. Des responsables évoquent des frictions internes, des désaccords sur la manière de gérer les risques et des divergences sur la communication au moment de la mise à disposition de nouveaux modèles. L’actualité rappelle que, dans l’IA, la question de la gouvernance n’est pas un détail : elle conditionne la capacité des entreprises à maintenir la coopération avec partenaires, régulateurs et équipes techniques.

    Robotique humanoïde : un levier d’exportation

    La robotique humanoïde progresse avec une dynamique industrielle particulièrement visible en Chine. Les analystes estiment que le pays cherche à prendre une avance non seulement sur la recherche, mais aussi sur le passage à l’échelle et la commercialisation. Un autre point souvent mis en avant est l’industrialisation de la donnée et de l’entraînement, y compris via des contributions indirectes depuis des utilisateurs ou des “travailleurs du clic”. À terme, la question sera moins “qui a le robot” que “qui contrôle le cycle données → apprentissage → déploiement”.

    Espace et stratégie d’entreprise : le sujet des pouvoirs et des protections

    Les projets d’introduction en bourse et les restructurations financières en lien avec l’espace alimentent aussi des débats sur la répartition du pouvoir au sein des entreprises. Les discussions portent sur l’équilibre entre la vision stratégique et les mécanismes habituels de protection des actionnaires. En filigrane, c’est la question de la discipline industrielle et de la transparence qui se retrouve : quand l’ambition technologique s’accélère, les règles de gouvernance doivent suivre pour éviter que le long terme ne se heurte au court terme.

    Tester l’IA via des mondes virtuels

    Dans le domaine de l’apprentissage, des équipes explorent l’usage de jeux en ligne complexes comme environnement d’expérimentation. L’intérêt tient à la richesse des interactions, la variabilité des situations et la possibilité de générer des scénarios d’entraînement. Ces approches s’inscrivent dans une tendance plus large : reproduire des “micro-mondes” pour évaluer les systèmes d’IA sur des tâches qui demandent à la fois planification, compréhension et exécution.

    Énergie sur site : le “balcon solaire” gagne du terrain

    La montée en puissance de l’énergie distribuée, notamment via des systèmes adaptés aux espaces réduits, modifie progressivement les habitudes. Les installations sur balcon — quand elles sont faisables techniquement — permettent de capter une partie de la production et de mieux gérer la consommation au quotidien. L’enjeu n’est pas seulement environnemental : il touche aussi à la résilience (réduction de la dépendance à certains pics de prix) et à la manière dont les ménages envisagent l’électronique domestique, le stockage et la gestion intelligente de l’énergie.

    Pour un usage “pré-installation” ou d’appoint, certaines personnes commencent par des solutions compactes. Un kit de panneaux solaires adapté à un usage domestique léger est souvent recherché pour évaluer, à petite échelle, l’efficacité et la faisabilité avant d’aller vers une installation plus complète.

    Inquiétudes publiques : attention, éclairage scientifique et contournements

    Au-delà de la technologie “lourde”, plusieurs sujets touchent au grand public. D’un côté, certains débats sur la “crise de l’attention” sont discutés : la technologie peut être fatigante mentalement sans pour autant réduire durablement la capacité attentionnelle. De l’autre, la science progresse sur des phénomènes naturels complexes, comme les mécanismes qui mènent à la foudre, grâce à des outils plus précis pour observer ce qui se passe à l’intérieur des orages.

    Enfin, les contournements de contrôles d’accès — ici via des vérifications d’âge visiblement vulnérables — soulignent un point récurrent : lorsque les systèmes de conformité sont trop faciles à “tromper”, ils finissent par déplacer le risque plutôt que le supprimer. La question de la robustesse des méthodes d’identification et de validation reste donc centrale.

    Ce que ces signaux suggèrent

    L’ensemble dessine une tendance claire : les avancées technologiques se jouent autant dans les infrastructures, la gouvernance et la disponibilité des ressources que dans l’innovation logicielle elle-même. L’IA a besoin de puissance et de règles ; la robotique a besoin de données et d’industrialisation ; l’énergie distribuée gagne du terrain par l’adaptation aux contraintes du quotidien. Dans ce paysage, les décisions prises aujourd’hui — partenariats, contrôles, modèles de déploiement — pèseront durablement sur la façon dont ces technologies s’intégreront dans la société.

  • Doutant des mythes, Trump a soudain compris que des tests de sécurité pour l’IA pourraient être utiles

    Doutant des mythes, Trump a soudain compris que des tests de sécurité pour l’IA pourraient être utiles



    Les débats autour de la “mise à l’épreuve” de l’intelligence artificielle se heurtent à un problème central : sans critères clairement définis, le processus risque d’être influencé par la politique. Plusieurs responsables et experts estiment qu’un contrôle public mal conçu pourrait mener à une approche où chaque camp cherche à orienter les règles du test pour renforcer ses propres positions.

    Le risque d’un système façonné par le pouvoir

    En l’absence de standards établis, la procédure pourrait devenir un levier politique, avertit Kreps. L’enjeu n’est pas seulement technique : il s’agit d’éviter un cadre où “celui qui détient le pouvoir” détermine la manière dont les évaluations sont menées. Or, pour l’instant, aucune des administrations américaines successives n’a proposé de mécanisme jugé capable de neutraliser ce risque.

    Contrôler sans décider du contenu

    Dans sa communication, Microsoft évoque la coopération avec la CAISI et le NIST pour développer les méthodes d’évaluation, notamment via des tests “adversariaux”. L’idée consiste à examiner comment les systèmes réagissent à des scénarios inattendus, à des voies potentielles de mauvaise utilisation et à différents modes de défaillance. Microsoft compare ce travail à des tests de sécurité menés sur des équipements critiques — comme des airbags ou des freins — afin d’assurer une fiabilité sous contrainte.

    Pourtant, l’approche ne convainc pas entièrement Gregory Falco, chercheur à l’université Cornell. Il met en garde contre une surveillance qui se limiterait à une validation politique des sorties d’un modèle. Le contrôle de l’État ne devrait pas devenir un outil permettant de trancher si un système produit des propos jugés favorables ou défavorables à une administration en place.

    Vers un audit indépendant plutôt qu’un contrôle partisan

    Falco plaide plutôt pour une forme d’audit indépendant, capable d’évaluer la sécurité et la robustesse sans chercher à contrôler le contenu. L’idée est simple : si les entreprises savent que leurs modèles peuvent être audités à tout moment, elles auront davantage d’incitations à renforcer leurs tests internes et à réduire les déploiements risqués. Dans cette logique, l’audit serait accompagné de “conséquences réelles” en cas de négligence.

    Il estime par ailleurs que le gouvernement fédéral ne dispose pas aujourd’hui des compétences techniques, de l’infrastructure et du suivi opérationnel nécessaires pour évaluer directement ces systèmes à grande échelle. D’où l’intérêt, selon lui, de s’appuyer sur une évaluation structurée et externalisée, plutôt qu’un dispositif strictement interne.

    Un cadre de sécurité qui reste à construire

    Au-delà des intentions, la réussite de ces démarches dépendra de détails souvent déterminants : qui fixe les critères, comment sont conduits les tests, comment sont gérés les résultats sensibles et quelle place est donnée à l’indépendance des évaluateurs. Sans ces garde-fous, la sécurité de l’IA pourrait se retrouver fragilisée par des logiques de gouvernance difficilement compatibles avec l’objectif de protection du public.

  • Cinq architectes de l’économie de l’IA expliquent d’où viennent les dysfonctionnements

    Cinq architectes de l’économie de l’IA expliquent d’où viennent les dysfonctionnements


    Cinq responsables impliqués à chaque niveau de la chaîne de valeur de l’intelligence artificielle se sont penchés, lors d’un échange à la Milken Global Conference, sur un constat qui s’impose : les limites ne sont pas seulement logicielles. Elles s’expriment aussi dans la production des puces, dans l’énergie disponible, dans l’accès aux données du monde réel et, plus largement, dans la manière dont les États entendent contrôler des systèmes capables d’agir physiquement.

    Sur scène, ils ont aussi évoqué l’architecture même de l’IA, la question de la confiance lorsque des systèmes agissent pour le compte des entreprises, ainsi que l’impact possible sur la génération qui utilisera ces outils au quotidien.

    Des goulots d’étranglement plus précoces que prévu

    Le premier frein est tangible : les puces. Le dirigeant d’ASML a souligné que, malgré l’accélération des capacités industrielles, le marché pourrait rester sous-approvisionné sur plusieurs années. Autrement dit, les grands acheteurs de puissance de calcul pourraient ne pas obtenir l’intégralité de ce qu’ils anticipent, malgré les investissements consentis.

    La demande, elle, ne faiblit pas. Le responsable de Google Cloud a rappelé la dynamique de croissance de son activité et l’ampleur des engagements en attente de livraison. Son message était clair : l’appétit pour l’infrastructure IA est bien réel.

    Pour certains usages, la limite n’est pas le silicium, mais le monde. Un autre intervenant, spécialisé dans l’autonomie pour véhicules et robots, a expliqué que la difficulté principale réside dans la collecte de données issues d’environnements réels. Les simulations sont utiles, mais elles ne remplacent pas totalement l’observation directe : selon lui, l’entraînement “du monde physique” à grande échelle à partir de données purement synthétiques prendra du temps.

    L’énergie : le prochain verrou structurel

    Après les puces, l’enjeu énergétique. La discussion a convergé vers un point : davantage de calcul signifie davantage de consommation, donc davantage de contraintes. L’exploration de sites de data centers dans l’espace a été évoquée comme une piste sérieuse, même si sa mise en œuvre implique de nombreux défis techniques, notamment pour l’évacuation de la chaleur.

    Plus largement, plusieurs intervenants ont défendu l’idée que l’intégration “de bout en bout” peut améliorer l’efficacité. En concevant ensemble le matériel et la manière d’exécuter les modèles, les systèmes peuvent optimiser le rapport performance/énergie. Mais le message final reste prudent : l’efficacité ne supprime pas la réalité du coût énergétique.

    Vers de nouveaux modèles d’intelligence

    Certains acteurs déplacent le centre de gravité. Là où une partie de l’écosystème se concentre sur l’échelle et l’optimisation des modèles de langage, une entrepreneure issue de la physique a présenté une approche différente, basée sur des modèles cherchant à capturer des règles plutôt qu’à prédire la suite de tokens.

    Son argument est que la “compréhension” utile à des systèmes immergés dans le réel pourrait nécessiter une logique plus proche des mécanismes physiques que des corrélations linguistiques. Elle affirme aussi concevoir des systèmes capables d’actualiser leurs connaissances en fonction des données, sans repartir de zéro à chaque changement massif.

    Agents numériques et garde-fous en entreprise

    L’IA passe du “outil” au “collaborateur”. Un dirigeant de Perplexity a décrit l’évolution de son offre vers ce qu’il appelle un “travailleur numérique”, conçu pour exécuter des tâches à la place d’un utilisateur, sous sa supervision.

    Cette vision soulève immédiatement la question du contrôle. La réponse a mis en avant un principe : la granularité des autorisations. Les administrateurs peuvent limiter l’accès à des connecteurs ou des outils, et distinguer ce qui peut être lu de ce qui peut être modifié. Lorsque l’agent agit, il doit généralement proposer un plan et solliciter une validation préalable, afin de réduire les risques dans les environnements sensibles.

    Souveraineté et IA physique

    La géopolitique change avec le passage au physique. Un intervenant a insisté sur le fait que l’IA embarquée dans des véhicules autonomes, des drones ou des machines industrielles n’est pas perçue comme un simple logiciel. Elle touche directement à la sécurité nationale, aux données collectées et à la responsabilité des systèmes opérant sur un territoire.

    Dans ce contexte, le contrôle ne relève pas seulement de la cybersécurité ou de la conformité. Il devient aussi une question de souveraineté : selon lui, peu de pays disposent des capacités nécessaires pour déployer une intelligence physique avancée tout en maîtrisant ses dépendances technologiques.

    Une question de génération : créativité ou déclin du jugement ?

    L’échange a fini par une interrogation plus existentielle : les outils IA vont-ils fragiliser la pensée critique des prochaines générations ? Les intervenants se sont montrés plutôt confiants, en soulignant que ces technologies pourraient aussi accélérer la résolution de problèmes complexes — santé, climat, infrastructures — que les sociétés n’ont pas su traiter faute de moyens, de coordination ou de puissance de calcul.

    Ils ont aussi apporté une nuance pratique : même si certaines tâches d’entrée de gamme peuvent se transformer ou disparaître, l’accès à des outils capables de lancer des projets reste, selon eux, plus démocratisé que jamais. Enfin, concernant l’impact sur le travail, un intervenant a distingué le savoir-faire intellectuel, susceptible d’être automatisé, du travail physique souvent lié à des pénuries et à une moindre attractivité de certains métiers. Dans ces secteurs, l’IA physique serait plutôt appelée à combler des manques déjà présents.

    Ce que ces échanges révèlent, au-delà des personnalités

    Au total, la discussion met en évidence une tendance : l’économie de l’IA ne bute plus uniquement sur les performances des modèles. Elle se heurte à des contraintes industrielles (production de puces), à des limites physiques (énergie, refroidissement, chaleur), à des réalités opérationnelles (données du monde réel) et à des enjeux sociétaux et politiques (contrôle, sécurité, souveraineté). Dans ce cadre, l’innovation progresse moins par “effet magique” que par ajustement simultané des technologies, des infrastructures et des règles d’usage.

    Pour suivre l’évolution de ces sujets côté matériel, certains lecteurs se tournent aussi vers des solutions de calcul et de gestion de l’énergie adaptées aux environnements de serveurs. Par exemple, un onduleur pour serveurs peut être utile pour comprendre l’importance de la continuité d’alimentation, souvent sous-estimée dans les discussions sur la puissance de calcul. Côté stockage et accès aux données, un SSD NVMe orienté entreprise pour station de travail illustre aussi comment la performance et la disponibilité des données deviennent un paramètre central lorsque les systèmes IA s’industrialisent.

  • Cour suprême invalide la règle de la FCC sur la non-discrimination, contestée par les fournisseurs d’accès à Internet

    Cour suprême invalide la règle de la FCC sur la non-discrimination, contestée par les fournisseurs d’accès à Internet



    La Cour d’appel du 8e circuit a invalidé des règles de la FCC (Federal Communications Commission) visant à lutter contre la discrimination dans l’accès au haut débit. Contestées par des acteurs du secteur des télécommunications et du câble, ces dispositions étaient fondées sur l’idée que certaines pratiques, même sans intention discriminatoire, pouvaient avoir des effets défavorables sur des catégories de population protégées.

    Une définition centrée sur les effets sur les consommateurs

    La FCC définissait la discrimination liée au haut débit comme des « politiques ou pratiques » non justifiées par des contraintes techniques ou économiques réelles, susceptibles d’avoir des effets différents sur l’accès au service selon le niveau de revenu, la race, l’origine ethnique, la couleur, la religion ou l’origine nationale. Le texte visait également des situations où ces impacts différenciés seraient recherchés, ou prévisibles, même en l’absence de critères ouvertement discriminatoires.

    Les règles ne s’adressaient pas uniquement aux fournisseurs d’accès à Internet. Elles concernaient aussi d’autres acteurs susceptibles de limiter l’accès égalitaire, notamment certains propriétaires immobiliers. La FCC indiquait que l’action d’entités autres que les opérateurs pouvait entraver l’accès au haut débit sur la base de critères prévus par la loi.

    Une contestation devant plusieurs juridictions

    Les dispositions de la FCC ont fait l’objet de recours devant plusieurs cours fédérales d’appel. Des organisations représentant des intérêts du secteur, notamment des acteurs du câble, du sans-fil et des fournisseurs d’accès, ont contesté ces mesures. Le dossier a ensuite été attribué à la 8e circuit.

    Des groupes défendant, à l’échelle des États, les intérêts des fournisseurs d’accès ont également soulevé des objections, ainsi que des organisations liées au logement locatif et à des entreprises intervenant dans le déploiement de réseaux haut débit.

    La cour critique la portée “sans intention” de la règle

    Les juges du 8e circuit ont estimé que la règle fédérale couvrait la « discrimination non intentionnelle », autrement dit la notion d’« impact différentiel » : une politique présentée comme neutre en apparence, ou justifiée par des motifs non discriminatoires, mais produisant néanmoins des effets disproportionnés sur un groupe protégé.

    Selon la décision, le Congrès n’aurait pas autorisé une responsabilité fondée sur ces effets dans le cadre de la loi ayant donné mandat à la FCC, l’Infrastructure Investment and Jobs Act. La cour a relevé que le texte exigeait l’adoption de règles « visant à prévenir la discrimination numérique d’accès » selon les critères mentionnés, en rappelant par ailleurs que, dans la jurisprudence américaine, la définition “normale” de la discrimination renvoie classiquement à un traitement différencié.

    Des conséquences possibles pour la régulation du haut débit

    En pratique, ce type de contentieux illustre la tension entre deux approches : mesurer des discriminations à partir des résultats observés, ou se limiter à des actes caractérisés par un traitement différencié. Le rejet d’une règle basée sur les “impacts” pourrait réduire la marge de manœuvre réglementaire de la FCC dans les dossiers où l’effet sur certains publics est avancé sans preuve d’intention.

    Pour les consommateurs et les acteurs du secteur, l’enjeu reste la même : garantir l’accès au haut débit tout en respectant les limites juridiques fixées par la législation. Les opérateurs peuvent aussi être amenés à revoir leurs politiques et leurs procédures de déploiement ou d’orientation commerciale.

    En parallèle, les utilisateurs qui cherchent à mieux comprendre leurs choix d’accès peuvent s’appuyer sur des outils de diagnostic réseau. Par exemple, un testeur réseau Ethernet peut aider à identifier des problèmes de connexion qui ne relèvent pas de la politique commerciale, mais de la qualité du lien ou de l’infrastructure.

    Du côté matériel, un routeur Wi‑Fi 6 peut améliorer la stabilité du Wi‑Fi à domicile et faciliter des comparaisons concrètes entre fournisseurs, surtout lorsqu’un logement n’a pas le même niveau d’équipement ou de performance selon les zones.

  • TSMC se tourne vers l’énergie éolienne face à l’essor de la demande de puces pour l’IA, la rareté énergétique à Taïwan inquiète

    TSMC se tourne vers l’énergie éolienne face à l’essor de la demande de puces pour l’IA, la rareté énergétique à Taïwan inquiète



    Taiwan traverse une période de tension énergétique, mais la perspective d’une demande en hausse — notamment tirée par la fabrication de puces de nouvelle génération — accélère aussi la transition énergétique. Alors que l’approvisionnement en hydrocarbures serait pour l’instant sécurisée à court terme, le gouvernement et les industriels cherchent à réduire la dépendance aux importations en misant davantage sur l’éolien et, plus largement, sur un mix moins carboné.

    Une sécurité énergétique à court terme, malgré les pressions

    Lors d’un forum consacré à l’énergie, des responsables taïwanais ont indiqué que les stocks d’hydrocarbures permettraient de maintenir un fonctionnement normal jusqu’à la fin de l’été, avec une possible prolongation vers septembre. Cette relative visibilité ne dissipe toutefois pas les inquiétudes liées aux chocs affectant les marchés mondiaux de l’énergie, dans un contexte où Taiwan dépend fortement de combustibles importés.

    La stratégie en cours vise donc à compléter cette base par des sources alternatives. Le pays entend notamment accélérer le développement d’énergies renouvelables en mer, tout en explorant d’autres leviers énergétiques, dont la reprise d’unités nucléaires mises à l’arrêt.

    Le rôle central de l’éolien offshore et la trajectoire du gouvernement

    Dans cette logique, l’éolien offshore occupe une place importante. Une feuille de route publique prévoit de mobiliser jusqu’à 15 gigawatts de capacité d’ici 2035, afin de fournir aux développeurs un cadre clair pour investir et planifier leurs projets.

    Le projet Hai Long s’inscrit dans cette dynamique. À mesure que les objectifs s’intensifient, l’enjeu devient aussi industriel : sécuriser des volumes d’électricité et stabiliser les coûts face à une demande en forte croissance.

    TSMC en ligne de mire : une consommation électrique qui monte

    TSMC est au cœur de ces équations. Le géant des semi-conducteurs consomme de grandes quantités d’électricité pour alimenter ses usines de fabrication. En 2023, ses besoins représentaient près de 10 % de la consommation électrique totale de Taïwan, selon des estimations relayées par des analyses internationales.

    Cette part pourrait encore augmenter au cours de la décennie, avec l’intensification de la production visant à répondre à la demande mondiale en puces — notamment celles utilisées dans l’intelligence artificielle. L’hypothèse la plus souvent évoquée est une montée vers un niveau significatif de la consommation nationale d’ici 2030, tirée par des investissements industriels plus gourmands en énergie.

    Des engagements de TSMC pour réduire l’empreinte énergétique

    En parallèle des efforts sur l’offre électrique à Taïwan, TSMC annonce des objectifs de couverture par des énergies renouvelables : 60 % des besoins mondiaux visés à l’horizon 2030, puis 100 % d’ici 2040. Ces engagements s’ajoutent à une série de contrats d’achat d’électricité déjà signés pour se fournir en énergie renouvelable, notamment via des projets éoliens.

    Dans le même esprit, les investissements de TSMC s’accompagnent de partenariats avec des acteurs européens de l’énergie. L’entreprise a notamment conclu des accords liés à des parcs éoliens offshore et terrestre, afin de diversifier ses sources.

    Au-delà des annonces : l’équation réseau et la capacité à produire

    Le défi taïwanais ne se limite pas à signer des contrats : il faut aussi que l’électricité soit effectivement disponible, que le réseau suive et que les projets aboutissent dans les délais. L’accélération de l’éolien offshore implique des enjeux de raccordement, de capacité et de planification, dans un contexte où la consommation industrielle pourrait continuer de croître.

    Sur le terrain, les solutions d’efficacité et de pilotage de l’énergie prennent aussi de l’importance pour les sites fortement consommateurs. À titre d’exemple, des équipements de mesure et d’analyse peuvent aider à suivre les usages et optimiser l’exploitation, comme un capteur de consommation énergétique connecté pour le suivi en temps réel ou un onduleur ou système de gestion d’alimentation pour sécuriser et optimiser l’infrastructure, selon les besoins des installations.

  • Le gouvernement américain renforce ses fournisseurs d’IA et redéfinit le rôle d’Anthropic

    Le gouvernement américain renforce ses fournisseurs d’IA et redéfinit le rôle d’Anthropic


    L’administration américaine renforce le recours à des fournisseurs d’intelligence artificielle déjà implantés dans l’écosystème technologique du pays. Le Pentagone a conclu de nouveaux accords permettant d’utiliser des solutions portées par plusieurs acteurs, dans le cadre d’opérations classifiées. Cette décision s’inscrit aussi dans une volonté plus large de réduire la dépendance à un fournisseur unique et de conserver une flexibilité à long terme.

    Quatre nouveaux fournisseurs intégrés aux usages classifiés

    Quatre entreprises supplémentaires ont été ajoutées à la liste des fournisseurs “favorisés” par les autorités américaines. Les accords signés par le Pentagone concernent Microsoft, Reflection AI, Amazon et Nvidia. L’objectif est de permettre l’utilisation de leurs technologies pour des missions relevant de données classifiées.

    Ces nouveaux noms s’ajoutent à un socle déjà établi, incluant OpenAI, xAI et Google. Désormais, le Département de la Défense peut recourir à ces outils “pour tout usage légal”, une formule qui a récemment alimenté une controverse.

    Le différend autour d’Anthropic et la reconfiguration du rôle de ses modèles

    Le point de friction a concerné Anthropic, notamment au sujet de la portée de l’expression “tout usage légal”. Le PDG de l’entreprise, Darius Amodei, a estimé que cette interprétation pourrait ouvrir la voie à l’usage de technologies d’Anthropic à des fins de surveillance de la population civile ou d’armes autonomes, sur des volets que l’entreprise souhaitait voir exclus.

    En conséquence, le Pentagone a annulé un contrat de 200 millions de dollars avec Anthropic. L’entreprise a contesté la décision en justice, faisant valoir des pertes financières, ainsi que l’influence possible de choix politiques dans la rupture.

    Parallèlement, les autorités américaines ont décrit Anthropic comme présentant un “risque” pour la chaîne d’approvisionnement, une qualification rarement utilisée pour une société basée aux États-Unis. Des éléments de communication gouvernementale ont également qualifié l’entreprise de “woke”.

    Vers une stratégie “anti-verrouillage” et une utilisation plus large

    Dans ses communications, le Pentagone met en avant la construction d’une architecture visant à limiter le verrouillage technologique (“vendor lock-in”) et à préserver des options sur le long terme. Les accords doivent fournir aux forces engagées des outils permettant d’agir avec davantage de confiance opérationnelle, tout en relevant les défis de sécurité.

    Les usages visés couvrent des niveaux de classification importants, notamment des cas impliquant des données secrètes et les matériaux les plus hautement protégés. L’administration militaire parle d’une évolution vers une “force de combat d’abord alimentée par l’IA”.

    À ce stade, on ignore si ces objectifs incluent aussi des déploiements au-delà du cadre strictement interne aux services de défense. Jusqu’ici, l’usage de l’IA générative par le Pentagone restait principalement cantonné à des tâches non classifiées, comme la rédaction, la synthèse de documents et des travaux de recherche.

    Pourquoi multiplier les fournisseurs change l’équilibre

    En élargissant la base de fournisseurs pour les systèmes d’IA utilisés par la défense et les acteurs de sécurité, les autorités cherchent à rendre leurs choix moins sensibles aux variations d’engagement de certains éditeurs. En pratique, plus la dépendance technologique est répartie, moins le risque de blocage lié aux positions d’un dirigeant ou aux décisions d’une entreprise semble déterminant.

    Ce raisonnement s’inscrit dans un contexte où certaines grandes entreprises ont déjà pu modifier leurs pratiques après des tensions internes liées à l’usage de leurs technologies dans l’armement ou le conflit.

    Un point de continuité : l’empreinte d’Anthropic dans des systèmes existants

    Malgré la mise à l’écart contractuelle, des usages antérieurs d’Anthropic dans des environnements classifiés continuent d’alimenter le débat. L’IA Claude a notamment été utilisée dans le cadre de l’outil Maven de Palantir. Par ailleurs, des informations rapportent que le modèle Mythos d’Anthropic serait évalué ou employé dans des contextes liés à la cyberdéfense.

    Selon les éléments évoqués, Mythos pourrait être examiné par un ensemble d’organisations, dont certaines administrations britanniques et américaines. Ces pratiques suggèrent que la place d’Anthropic, au-delà des contrats, pourrait dépendre d’architectures déjà installées et de calendriers d’évaluation distincts.

    Vers un possible ajustement de la position publique

    Des indications rapportées font état d’une volonté de réévaluer la posture la plus récente concernant Anthropic. L’idée serait de trouver une manière de concilier les impératifs politiques avec la continuité opérationnelle, tout en rappelant que l’administration affirme engager des discussions à travers le gouvernement et avec l’industrie autour de la sécurité nationale et de l’usage des laboratoires d’IA de pointe.

    En toile de fond, cette séquence illustre une tendance déjà observée : les autorités américaines cherchent à gouverner l’IA non seulement par la performance technique, mais aussi par la gestion du risque, la réversibilité des choix fournisseurs et la capacité à maintenir des systèmes utilisables sur le plan opérationnel.

    Pour approfondir côté pratique, certains lecteurs suivent aussi les outils qui servent à gérer des environnements de données et de travail pour l’IA. À titre d’exemple, un ordinateur de travail orienté GPU pour l’IA peut aider à reproduire localement des chaînes de traitement. De même, un cours ou kit de prise en main pour la mise en place de pipelines ML est utile pour mieux comprendre les contraintes d’intégration et de gouvernance des systèmes.

  • Energizer lance des piles au lithium qui ne provoquent pas d’incendie en cas d’ingestion accidentelle

    Energizer lance des piles au lithium qui ne provoquent pas d’incendie en cas d’ingestion accidentelle


    Energizer annonce une évolution de ses piles bouton lithium, spécifiquement conçue pour limiter les conséquences d’une ingestion accidentelle par un enfant. La marque met en avant une technologie visant à réduire le risque de brûlures dans l’œsophage et à améliorer la détection rapide de l’incident grâce à un indicateur visible.

    Des piles “coin” améliorées pour la sécurité

    Les batteries de type “coin” sont couramment utilisées dans de nombreux petits appareils (montres, dispositifs de repérage, etc.). Leur ingestion accidentelle par un enfant fait toutefois l’objet de signalements réguliers, car certaines piles peuvent provoquer des lésions internes après un contact prolongé.

    Avec la gamme Ultimate Child Shield, Energizer affirme que ses piles au format 20 mm ne provoquent pas de brûlure en cas d’ingestion. Le dispositif intègre également un colorant destiné à teinter la bouche de l’enfant en bleu si la pile entre en contact avec la salive, ce qui doit permettre d’identifier plus vite l’incident.

    Formats concernés et appareils compatibles

    Cette technologie est annoncée sur plusieurs références, notamment les formats 2032, 2025 et 2016. Ces piles alimentent de nombreux équipements du quotidien, des montres aux dispositifs de localisation, selon les modèles et leurs spécifications d’origine.

    En pratique, la présence d’un indicateur visuel peut aider les adultes à réagir rapidement en cas de suspicion d’ingestion. Même avec une amélioration technique, il reste important de suivre les consignes de sécurité habituelles autour des piles bouton, qui recommandent notamment de les conserver hors de portée des enfants.

    Point de vigilance

    Les communications produit d’Energizer décrivent l’objectif “anti-brûlure” et l’indicateur coloré, sans pour autant éliminer toute nécessité d’un diagnostic médical si un incident est suspecté. Comme pour toute technologie liée à la sécurité, l’efficacité réelle dépend aussi du temps d’exposition et des circonstances de l’accident.

    Pour les utilisateurs cherchant à s’équiper de piles bouton de remplacement, vous pouvez comparer les formats adaptés à vos appareils, par exemple en consultant une sélection sur les piles lithium 2032 ou sur les piles bouton lithium 2016.

  • Claude : Anthropic ajuste ses limites d’utilisation et signe un nouveau partenariat avec SpaceX

    Claude : Anthropic ajuste ses limites d’utilisation et signe un nouveau partenariat avec SpaceX


    Lors de sa conférence Code with Claude, Anthropic a annoncé un nouvel accord avec SpaceX visant à augmenter les capacités de calcul mises à disposition du service Claude. L’éditeur prévoit notamment des hausses des limites d’usage pour ses offres Pro et Max, ainsi qu’un renforcement des capacités d’accès à certains modèles via l’API.

    Un partenariat de calcul avec SpaceX

    Selon les informations présentées à l’événement, l’accord permettrait à Anthropic d’exploiter l’intégralité de la capacité de calcul du centre de données de SpaceX situé à Memphis, dans le Tennessee. L’objectif affiché est d’augmenter les limites d’utilisation pour les abonnés des formules Pro et Max, en élargissant la “fenêtre” disponible pour certains usages liés à Claude Code.

    Anthropic affirme que cet arrangement apporte un accès à plus de 300 mégawatts de capacité de calcul supplémentaire. De son côté, SpaceX a mis en avant l’infrastructure associée au supercalculateur Colossus 1, annoncé comme reposant sur un large parc de GPU NVIDIA, incluant des générations récentes comme les puces H100 et H200.

    Des limites d’usage revues à la hausse

    L’annonce s’accompagne d’ajustements concrets des limites pour les utilisateurs Pro et Max. D’après les éléments communiqués, Anthropic :

    • a doublé la limite de durée de la fenêtre de cinq heures pour Claude Code sur les comptes Pro et Max ;
    • a supprimé la réduction appliquée aux heures de pointe pour ces mêmes abonnés ;
    • a augmenté certaines limites d’accès côté API pour le modèle Opus.

    En pratique, ces changements visent à réduire les contraintes d’utilisation et à permettre des sessions plus longues ou moins sensibles aux périodes de forte demande.

    Vers des ambitions de calcul “hors du sol”

    Au-delà de l’infrastructure terrestre, Anthropic indique avoir manifesté un intérêt pour une collaboration avec SpaceX autour de capacités de calcul en orbite, potentiellement à une échelle “multi-gigawatts”. L’idée s’inscrit dans un contexte où l’entraînement et l’exploitation de générations de modèles toujours plus puissants posent des questions d’énergie, de délais de déploiement et de contraintes physiques liées aux centres de données traditionnels.

    Un virage notable dans les relations

    Pour certains observateurs, l’accord peut surprendre compte tenu de prises de position publiques récentes de Elon Musk à propos d’Anthropic. L’évolution vers un partenariat de calcul souligne toutefois que, derrière les échanges médiatiques, les considérations industrielles et l’accès à la capacité de calcul demeurent un enjeu central pour l’écosystème de l’IA.

    Ce que cela change pour les utilisateurs

    Si vous utilisez Claude Code dans des environnements professionnels ou pour des tâches de développement exigeantes, l’élargissement des limites peut se traduire par moins d’interruptions et une meilleure continuité des sessions. Côté approche, il peut être pertinent de disposer d’un poste de travail bien configuré, notamment en termes d’environnement de développement et d’outillage.

    À titre de suggestion, certains utilisateurs complètent leur setup avec un écran portable pour améliorer le confort en atelier de développement, ou avec un clavier mécanique si leurs sessions de coding sont longues.