Catégorie : Technologie

  • Support de PlayStation VR2 pour Microsoft Flight Simulator 2024 désormais disponible

    Support de PlayStation VR2 pour Microsoft Flight Simulator 2024 désormais disponible


    Microsoft Flight Simulator 2024 a franchi une nouvelle étape sur console : le support de la réalité virtuelle PlayStation VR2 est désormais disponible via une mise à jour récente. Après l’arrivée du jeu sur PlayStation 5, les utilisateurs équipés d’un casque peuvent enfin voler avec une immersion renforcée, tandis que plusieurs ajustements viennent améliorer l’expérience générale.

    Une mise à jour centrée sur la VR PlayStation VR2

    Le principal changement concerne l’activation du mode VR pour PlayStation VR2. L’update ajoute aussi une option permettant de couper l’affichage tête haute (HUD) en réalité virtuelle tout en conservant son affichage dans les modes en vue 2D. Un réglage utile pour les joueurs qui souhaitent adapter le confort visuel selon la configuration de jeu.

    Pour les pilotes qui prennent des captures dans le simulateur, la mise à jour apporte également une modification pratique : l’album photo en VR et dans le jeu enregistre désormais les images directement dans la galerie média de la console, plutôt que dans le stockage interne du titre. L’objectif est de faciliter le partage de clichés pris au cours des vols.

    Optimisations de performances et améliorations techniques

    Au-delà de la VR, Asobo Studio met en avant des optimisations visant à fluidifier l’expérience. D’après les notes de patch, l’update réduit les saccades et améliore le nombre d’images par seconde, notamment lors des phases dans les grandes villes et à proximité d’aéroports complexes.

    La mise à jour introduit aussi une évolution côté météo avec une API de radar plus avancée : la plateforme permet désormais aux développeurs d’intégrer des radars météo plus authentiques, y compris une fonction de basculement (tilt), pensée pour reproduire plus fidèlement le comportement des instruments.

    Des ajustements sur le contenu “carrière” et la vie au sol

    Asobo indique avoir débloqué l’ensemble des modes carrière, y compris ceux liés aux avions lourds et aux appareils VTOL. Côté assistance au sol, la mise à jour renforce la fiabilité des services : si un élément du personnel est indisponible (par exemple le catering), les autres fonctions du crew (bagages, carburant, passerelle, etc.) continuent de fonctionner afin de limiter les perturbations pendant l’enchaînement des tâches.

    En pratique : à quoi s’attendre après la mise à jour

    Pour les possesseurs de PlayStation 5 et de PlayStation VR2, cette annonce correspond à une attente logique : pouvoir profiter pleinement du simulateur en réalité virtuelle. Les optimisations de fluidité et les améliorations autour des radars météo contribuent, elles, à renforcer la sensation de réalisme. Quant aux changements sur la galerie média et la carrière, ils ciblent surtout le quotidien des joueurs, notamment le partage des captures et la robustesse des sessions.

    Si vous cherchez à compléter votre installation, un bon réflexe est de vérifier la compatibilité et la configuration de votre espace de jeu. Pour le matériel VR, certains utilisateurs envisagent aussi un modèle de support ou d’accessoire de rangement pour stabiliser leur setup, comme ce socle de recharge pour PlayStation VR2, utile pour organiser le casque entre deux sessions.

    Enfin, pour optimiser le confort de pilotage en dehors du VR, beaucoup se tournent vers des équipements de contrôle. Un joystick ou contrôleur de vol compatible PS5 peut améliorer la précision des entrées, surtout lors de vols longs ou d’approches délicates.

  • Ce que les présentations de LG et NVIDIA révèlent sur l’avenir de l’IA physique

    Ce que les présentations de LG et NVIDIA révèlent sur l’avenir de l’IA physique


    Les échanges exploratoires entre LG et NVIDIA autour de l’« physical AI » dessinent un panorama concret des conditions nécessaires pour faire passer l’autonomie du monde de la simulation à celui du réel. Au-delà des annonces, les priorités évoquées mettent surtout en lumière un point central : l’IA physique ne se limite pas à l’algorithme, elle dépend d’infrastructures matérielles capables d’encaisser, sans défaillance, des calculs et des contraintes thermiques de plus en plus lourds.

    Un saut d’échelle coûteux : du modèle à la réalité

    LG et NVIDIA n’ont pas précisé de montants d’investissement ni d’échéances. Toutefois, le rapprochement est révélateur : faire fonctionner des systèmes automatisés complexes à grande échelle implique des dépendances étroites entre le calcul, le stockage, la chaîne logicielle et l’environnement d’exécution. Les besoins en calcul pour entraîner et exécuter des modèles d’apprentissage (notamment pour la vision, la compréhension d’espace et la prise de décision) poussent les clusters à se densifier.

    Cette densification pose un problème physique. Même lorsque les serveurs sont performants, la gestion thermique devient un facteur limitant : quand la température dépasse des seuils de sécurité, les nœuds ralentissent, ce qui réduit l’efficacité économique des investissements matériels. Dans ce contexte, LG met en avant sa capacité à fournir des solutions de gestion thermique et de ventilation adaptées aux environnements exigeants des centres de données orientés IA. L’enjeu est de permettre une exploitation plus intensive des infrastructures, sans abîmer les composants et sans dégrader les marges.

    Cette approche est aussi stratégique pour LG : plutôt que d’opposer sa valeur à celle du « compute », elle pourrait se positionner comme fournisseur de l’infrastructure qui rend le calcul soutenable dans le temps. Sur le plan des signaux commerciaux, la dynamique de LG dans l’« entreprise connectée » renforce cette lecture, en cohérence avec un mouvement vers des solutions récurrentes liées aux environnements intelligents.

    Pour les équipes qui cherchent à renforcer la gestion thermique dans des environnements techniques à forte charge, une solution de ventilateurs pour baie serveur peut constituer un exemple de brique matérielle utile lors de la montée en densité (sans préjuger des choix d’architecture des acteurs industriels).

    Robotique : la latence devient une contrainte de conception

    Le sujet ne concerne pas uniquement les centres de données. Pour l’IA physique embarquée dans des appareils du quotidien, la latence est un facteur déterminant. Une commande qui doit se traduire en mouvement doit éviter toute hésitation : si un robot doit saisir un objet, il lui faut traiter rapidement la donnée visuelle, interpréter la scène, identifier les propriétés de l’objet, puis déterminer la force et le geste appropriés. En pratique, une erreur de calcul ou un retard peut entraîner des dommages matériels — ou des risques pour les personnes.

    LG s’appuie sur une plateforme destinée à l’apprentissage contextuel de son robot domestique CLOiD, doté de plusieurs articulations et d’une configuration de préhension fine. Mais le passage du prototype au déploiement fiable à grande échelle exige une chaîne de traitement solide : modèles de manipulation suffisamment entraînés, environnements de simulation, et capacité à produire des inférences à faible délai.

    NVIDIA apporte ici une brique d’architecture, via ses piles logicielles orientées robotique et simulation, conçues pour rapprocher plus vite les capacités observées en laboratoire de celles attendues en conditions réelles. L’objectif est de réduire la dépendance au cloud pour certains calculs de perception et d’inférence spatiale, en traitant une partie des informations localement (edge). Ce choix vise aussi à limiter les coûts liés à l’ingestion continue de données vidéo et à la cartographie permanente.

    Sur le plan matériel, des partenaires capables d’aligner leurs écosystèmes sur l’edge-compute deviennent donc plus que des fournisseurs : ils deviennent des maillons indispensables de la robustesse globale du système.

    Dans les contextes de déploiement en bord de réseau, une plateforme de calcul edge pour IA peut représenter, à titre indicatif, un type de composant utilisé pour exécuter des inférences localement lorsque la latence est critique.

    Données réelles, simulation et passage à l’échelle

    NVIDIA cherche simultanément à valider sa pile robotique dans des environnements de production, où les conditions sont plus contrôlées. Ces essais démontrent des capacités sur des chaînes industrielles structurées, mais la logique de l’IA physique exige ensuite de gérer des variations plus fortes : éclairage changeant, imprévus, interactions humaines et diversité des scènes. Pour l’autonomie dans des espaces domestiques, la qualité et la quantité des données deviennent cruciales.

    L’enjeu pour LG, via son écosystème grand public, consiste à offrir un cadre permettant de recueillir des informations qui reflètent la réalité. En théorie, cette richesse de données peut améliorer l’entraînement des modèles et réduire l’écart entre simulation et comportement réel. C’est aussi un levier pour faire évoluer les plateformes de développement vers des outils capables de soutenir des architectures d’autonomie plus universelles.

    Automobile : harmoniser l’interface et le calcul

    Un autre axe de convergence concerne l’automobile. LG dispose de capacités liées à l’habitacle et aux systèmes d’infodivertissement, tandis que NVIDIA couvre une grande partie de la couche calcul dédiée à l’autonomie, qu’elle soit complète ou partielle. Dans l’industrie, le point de friction classique réside dans l’intégration : relier des systèmes hérités à des nœuds de calcul plus avancés reste complexe, et chaque architecture implique des efforts d’intégration spécifiques.

    Si LG et NVIDIA parviennent à formaliser un alignement, l’ambition serait de mieux unifier les modèles de référence et les parcours de mise à jour « over-the-air » liés à l’apprentissage machine. En simplifiant les intégrations et en standardisant davantage l’interface entre l’habitacle et le calcul autonome, elles pourraient réduire le coût d’ingénierie sur des flottes et accélérer les cycles d’amélioration.

    Au final, ces discussions exploratoires entre LG et NVIDIA clarifient les exigences matérielles et logicielles du déploiement de l’IA physique : densité de calcul soutenable thermiquement, chaîne d’inférence à faible latence, environnements de simulation et de données proches du réel, ainsi qu’une intégration cohérente entre interfaces et couches de calcul. Autrement dit, l’avenir de la « physical AI » dépend autant des briques d’infrastructure que des progrès algorithmiques.

  • Light Phone rend son téléphone “simple” plus pratique grâce à des outils tiers

    Light Phone rend son téléphone “simple” plus pratique grâce à des outils tiers


    Time and time again, des utilisateurs de téléphones « dumb » – ou de téléphones minimalistes – se regroupent dans des communautés spécialisées pour réclamer des fonctions supplémentaires. L’objectif est clair : réduire le temps passé sur un smartphone et limiter l’anxiété liée au flux constant de notifications et de contenus. Dans la pratique, beaucoup finissent toutefois par se heurter à une réalité : sans applications, il est difficile de couvrir certains besoins du quotidien.

    La société Light Phone veut justement combler ce manque. En lançant un programme destiné aux développeurs pour sa plateforme logicielle LightOS, l’entreprise entend faciliter la création de nouveaux « Tools » (outils) capables d’ajouter des fonctionnalités utiles sur ses téléphones, tout en conservant l’approche minimaliste du produit.

    Une réponse à la demande d’applications spécifiques

    Le marché des téléphones minimalistes attire des personnes prêtes à renoncer à une grande partie des usages d’un smartphone. Mais les attentes restent variées : certaines recherchent une application d’authentification, d’autres des fonctions de mobilité (par exemple afficher des informations de transports) ou encore des outils orientés activités comme la randonnée.

    Le dirigeant de Light Phone explique que la taille de l’équipe et l’absence d’un « app store » comparable à ceux des grands écosystèmes rendent l’ajout de nouvelles fonctions plus complexe. L’entreprise compte donc s’appuyer sur des développeurs externes pour étendre l’offre de Tools disponibles.

    Un programme développeurs pour LightOS

    Light Phone prévoit de déployer en mai un programme de développement dédié à LightOS, le système qui équipe son modèle Light Phone III. L’annonce vise à permettre à davantage de créateurs de concevoir plus facilement des Tools personnalisés.

    Le principe n’est pas de transformer le téléphone minimaliste en smartphone, mais d’ouvrir une voie officielle pour ajouter des fonctions ciblées. Cela répond à un besoin exprimé par une partie des utilisateurs : ceux qui aimeraient que leur appareil puisse faire « juste un peu plus », sans perdre l’essentiel.

    Des Tools déjà existants, mais désormais via un kit officiel

    Jusqu’à présent, la communauté a montré sa capacité à modifier et adapter le matériel, avec des créations parfois indépendantes de l’entreprise. Parmi les exemples évoqués : un client pour Spotify, un outil pour conserver des passes (comme des cartes d’abonnement) ou encore une application pour consulter des horaires de bus et de train.

    Avec un kit logiciel officiel, l’entreprise facilite le travail des développeurs intéressés. Un point important : la création de Tools ne nécessite pas forcément de posséder un Light Phone III pour développer, mais les Tools tiers sont annoncés comme uniquement disponibles sur le dernier modèle, ce qui limite leur compatibilité avec les générations plus anciennes.

    Un choix utile pour les usages « concrets »

    Dans l’ensemble, la démarche de Light Phone s’inscrit dans une logique pragmatique : plutôt que d’empiler des dizaines d’applications, l’entreprise cherche à encourager des outils circonscrits et réellement utiles. Pour les utilisateurs, l’enjeu est de conserver une interface sobre tout en ajoutant quelques fonctions qui, sans être essentielles, réduisent la friction du quotidien.

    Dans cette perspective, certains pourraient aussi regarder des solutions complémentaires pour la gestion « hors écran », comme un lecteur de QR codes dédié ou des options d’authentification plus simples à utiliser selon leurs contraintes. L’idée reste la même : garder un mode de vie numérique plus calme, sans pour autant se couper des usages nécessaires.

  • Gagner — et perdre — : Décrypter le jeu

    Gagner — et perdre — : Décrypter le jeu


    L’épisode de Decoder met en lumière un point central du journalisme technologique contemporain : poser des questions difficiles sur des sujets complexes, sans transformer l’entretien en simple performance. À travers un échange autour des réactions suscitées par plusieurs interviews, l’animateur décrit la logique qui guide l’émission, les tensions qu’elle génère chez l’audience, et la manière dont elle aborde l’IA entre promesses produit et réalités d’usage.

    Une émission “à double tranchant” : on peut gagner… ou perdre

    La conversation démarre par une mise au point sur le format. Participer à Decoder ressemble à un jeu : l’invité peut y gagner de la crédibilité en répondant clairement, ou y perdre s’il esquive, s’il semble trop préparé ou s’il ne maîtrise pas suffisamment le sujet. Contrairement à des interviews plus “lisses”, l’animateur souligne que l’enjeu est de faire émerger les arbitrages concrets derrière les produits et les stratégies, notamment quand les réponses attendues sont inconfortables.

    L’épisode Superhuman : pourquoi l’inconfort a compté

    L’un des épisodes les plus commentés de l’année a été celui consacré à un débat autour de l’appropriation de contenu et des limites de ce que l’IA peut faire, au-delà de la seule technique. Les retours évoquent un public partagé : certains y voient un entretien indispensable, d’autres une discussion trop tendue, difficile à suivre et trop “personnelle”. L’animateur explique toutefois que la gêne observée reflète une réalité : les questions sur l’IA renvoient à des inquiétudes plus larges, comme la rémunération des créateurs, la protection des œuvres et la façon dont les entreprises captent de la valeur à partir de productions existantes.

    Il insiste également sur l’idée que l’entretien ne vise pas seulement une cible, mais sert de “relais” vers des enjeux de fond. Le fait que la discussion touche directement l’animateur via un avatar ou un clone utilisé dans un produit aurait rendu les enjeux plus tangibles et, selon lui, plus faciles à comprendre pour l’audience.

    Quand l’interview devient un exercice d’esquive

    Un autre cas évoqué concerne une interview où l’auditoire a majoritairement perçu des réponses évasives. Les commentaires cités montrent l’effet produit : certains spectateurs décrivent une gêne proche du “malaise” tandis que d’autres y voient une absence de substance. L’animateur formule alors une règle pragmatique : la qualité d’un entretien dépend aussi de la capacité de l’invité à vouloir participer, à comprendre où se situe la conversation, et à accepter une pression croissante plutôt qu’une sortie par la tangente.

    Dans cette logique, l’objectif n’est pas seulement l’affrontement, mais la cohérence : si l’invité ne semble pas maîtriser son domaine, la conversation perd son intérêt et la tension devient stérile. À l’inverse, si l’invité a la profondeur attendue, l’augmentation des questions peut au contraire clarifier les enjeux et renforcer l’utilité du contenu pour le public.

    “Plateformer” ou pas : l’option de l’entretien plutôt que la censure

    Le débat sur la “plateforme” revient également. L’animateur s’oppose à l’idée qu’une stratégie de refus d’inviter réglerait le problème : ignorer des acteurs ne les fait pas disparaître, estime-t-il. Son approche privilégie la confrontation argumentée, avec des questions directes visant à rendre visibles les implications logiques des positions défendues par les entreprises.

    Il défend aussi l’idée que l’émission doit rester un espace où l’on peut “faire la danse” sans bloquer la discussion : les invités viennent parce qu’ils connaissent le style et savent qu’ils devront répondre sur leurs choix, tandis que l’audience sait qu’elle verra des questions structurantes, pas uniquement des slogans.

    IA : entre promesses, usage réel et marché “entreprise”

    La discussion bascule ensuite vers l’IA et les critiques adressées à la couverture médiatique. L’animateur affirme avoir des “sentiments mitigés” quant à la manière de la traiter, car l’IA est devenue un sujet où les publics ne reçoivent pas la même information selon qu’ils sont consommateurs ou acteurs économiques.

    Pour Decoder, la spécificité est de raisonner à hauteur d’entreprise : comprendre l’organisation, les décisions et la façon dont les outils sont produits. Dans ce cadre, l’enjeu devient la divergence entre les promesses grand public et les usages où l’IA répond réellement à un besoin identifié, notamment dans l’automatisation de tâches ou l’optimisation de processus. Il cite un contraste : côté consommateur, l’expérience peut rester décevante face à la rhétorique ; côté entreprises, le retour peut être plus favorable dès lors que la valeur est plus immédiatement mesurable.

    Cette perspective conduit aussi à rejeter l’idée d’un “saut” automatique vers une intelligence générale ou des capacités humaines complètes. L’animateur estime qu’il faut plutôt suivre l’écart entre le discours et le produit réellement utilisable, au niveau des fonctionnalités et des limites.

    Dans la pratique, il suggère que la couverture doit rester connectée aux usages, par exemple en examinant comment les outils d’écriture ou d’assistance se comportent dans le quotidien. Pour illustrer ce type de vérification, un équipement populaire comme un logiciel de correction et d’aide à la rédaction tel que un abonnement ou une solution de rédaction type Grammarly peut servir de point de départ pour comparer promesses marketing et résultats concrets.

    Il estime toutefois que l’attention de l’audience se durcit dès lors que les outils semblent entraîner des coûts sociaux ou des demandes disproportionnées. De ce point de vue, il relie les débats sur l’IA à des préoccupations plus larges : acceptabilité, effets sur l’emploi, et capacité à convaincre durablement des utilisateurs déjà exposés à des contenus de démonstration.

    Pourquoi le “récit” n’est pas suffisant

    Sur la question des annonces et des prévisions, l’animateur revient à une idée simple : la marketingisation ne peut pas compenser l’absence de produit convaincant. Si l’outil ne crée pas de bénéfice réel et ressenti, l’opposition peut s’installer rapidement. Il compare ce mécanisme à d’autres secteurs où la valeur perçue a fini par imposer le produit malgré des controverses, tout en rappelant que, pour l’IA grand public, l’adhésion à long terme n’est pas encore au rendez-vous.

    Il évoque aussi la nécessité de maintenir une exigence sur les limites techniques : les systèmes actuels ne peuvent pas garantir, à chaque étape, ce que l’on promet en matière d’autonomie ou de conséquences maîtrisées. Cette prudence rejoint une autre exigence de méthode : interroger directement ce que la technologie est capable de faire aujourd’hui, et ce qu’elle ne peut pas faire sans garanties.

    Formats et arbitrage : éviter la “performance” au profit du contenu

    À la fin de l’échange, la question du format apparaît à nouveau : faut-il multiplier les débats “pour et contre” ? L’animateur répond avec réserve. Il craint que ces débats ne servent surtout la mise en scène, et rappelle que certains programmes à succès reposent davantage sur la tension ou la personnalité des intervenants que sur la substance. Pour lui, le rôle de l’animateur reste de poser les bonnes questions, pas d’endosser un camp.

    Dans cette perspective, Decoder se présente comme un espace où l’on teste, à l’oral, la capacité des dirigeants à expliquer leurs choix, leurs contraintes et leurs arbitrages. L’enjeu n’est pas de “punir” systématiquement, mais de rendre la conversation utile et exigeante.

    En filigrane : un journalisme “de l’extérieur”, sans compromis

    Le tout se résume à un positionnement : être un média extérieur aux intérêts internes des entreprises, avec des règles strictes sur l’indépendance de l’entretien. L’animateur décrit une promesse : pas de réponses négociées après coup, pas d’orientation des thèmes à l’avance, et une volonté de préserver l’environnement de discussion.

    Dans cet esprit, la couverture de l’IA doit, selon lui, être à la fois technique et ancrée dans l’expérience réelle, afin d’éviter deux écueils : la fascination sans preuves et la critique sans compréhension. Pour un public qui veut aussi tester par lui-même des outils, un appareil d’usage courant comme un smartphone orienté productivité avec connectique USB-C peut, par exemple, faciliter des essais pratiques de fonctionnalités d’écriture et de recherche au quotidien—sans remplacer l’analyse éditoriale, mais en donnant une base concrète à la discussion.

  • Les investissements des géants de la Big Tech dans l’infrastructure d’IA ont porté leurs fruits et ont accéléré la dynamique

    Les investissements des géants de la Big Tech dans l’infrastructure d’IA ont porté leurs fruits et ont accéléré la dynamique


    Après une nouvelle salve de résultats trimestriels, un message ressort nettement : les dépenses d’infrastructure en intelligence artificielle des grandes plateformes cloud portent leurs fruits, tout en entraînant une accélération des investissements. Chez Microsoft, Alphabet, Meta et Amazon, la progression des revenus liés au cloud et aux offres alimentées par l’IA s’est accompagnée de perspectives d’investissements en hausse, malgré les inquiétudes initiales des marchés.

    Des capex massifs, mais déjà rentabilisés au moins sur le plan commercial

    Sur l’ensemble des quatre groupes, les entreprises annoncent pour 2026 un niveau de dépenses d’investissement global compris entre 630 et 650 milliards de dollars. Le premier test réel de la stratégie a eu lieu au trimestre écoulé : les performances opérationnelles confirment que les paris s’alignent avec la demande, notamment via les services cloud.

    Dans la dynamique actuelle, les entreprises ne semblent pas seulement “consolider” leurs infrastructures : elles indiquent vouloir construire davantage. C’est précisément cette combinaison — croissance du chiffre d’affaires et hausse des perspectives de capex — qui a dominé les séances boursières.

    Microsoft : Azure accélère, mais les investissements montent encore

    Microsoft a livré un trimestre solide avec un chiffre d’affaires total à 82,9 milliards de dollars, en hausse de 18% sur un an. Côté Azure, le signal attendu concernait la trajectoire : la croissance a atteint 40% en données comparables, au-delà des attentes du marché.

    Les revenus liés à l’IA continuent d’augmenter. L’entreprise indique qu’ils dépassent désormais 37 milliards de dollars sur une base annualisée. En parallèle, le capex annuel fiscal 2026 a été relevé jusqu’à 190 milliards de dollars, après une progression de 31,9 milliards sur le trimestre, soit une hausse marquée.

    La direction a aussi donné une indication pour la suite : la croissance d’Azure pour le prochain trimestre devrait rester élevée, suggérant une montée en puissance de l’offre à mesure que des capacités de data centers sont mises en service.

    Pour suivre concrètement l’évolution des environnements IA en entreprise, de nombreux professionnels s’équipent aussi en matériel de calcul. À titre d’exemple, un serveur de calcul pour workstation IA peut servir de base à des tests de déploiement, même si l’essentiel des ressources critiques reste centralisé dans le cloud.

    Alphabet : Google Cloud progresse très vite et la contrainte “compute” se fait sentir

    Alphabet a affiché une croissance globale de 20% et surtout une forte accélération de Google Cloud. Le revenu du segment a progressé de 63% sur un an, portée par les solutions d’entreprise et l’essor des offres liées à l’IA.

    La société reconnaît toutefois une contrainte opérationnelle : à court terme, elle se dit “compute constrained”, autrement dit limitée par la capacité de calcul disponible. Plutôt qu’une alerte sur la demande, cette formulation suggère que les clients veulent consommer, mais que l’infrastructure ne suit pas encore au même rythme.

    Dans ce contexte, Alphabet relève sa trajectoire d’investissements : le capex 2026 est désormais attendu entre 180 et 190 milliards de dollars. Elle anticipe aussi une progression notable des dépenses en 2027 par rapport à 2026.

    Meta : croissance des revenus, capex en hausse, arbitrage délicat

    Meta a publié un chiffre d’affaires de 56,31 milliards de dollars, en hausse de 33% sur un an. La dynamique provient en partie de son écosystème publicitaire alimenté par des systèmes d’IA, qui permettent d’optimiser la performance des campagnes.

    Le sujet sensible concerne le capex. Meta relève ses prévisions pour 2026 à 125-145 milliards de dollars, contre une fourchette précédente de 115-135 milliards. Le trimestre montre aussi une dissociation : le capex du premier trimestre a été inférieur aux estimations du marché, mais la hausse de l’objectif annuel indique une montée en charge sur la durée.

    La question centrale pour les investisseurs est donc la suivante : combien de temps la rentabilité du moteur publicitaire peut-elle financer un niveau d’investissements qui prend des proportions comparables aux économies d’échelle des plus grands acteurs ?

    AWS : le plus “lisible” côté revenus, avec une montée des capacités

    Amazon présente l’image la plus directe. AWS atteint 37,59 milliards de dollars sur le trimestre, en hausse de 28% sur un an, et réalise une des meilleures performances de son historique récent. L’activité affiche également une marge opérationnelle élevée.

    Le groupe met en avant l’évolution de sa stratégie matériel et semi-conducteurs, avec une logique visant à atteindre une meilleure échelle via ses puces. Même si ce segment s’inscrit dans le temps long, les indicateurs de croissance suggèrent que les investissements technologiques commencent à produire du volume.

    Ce que racontent les chiffres : la demande progresse, mais l’infrastructure reste le facteur limitant

    L’élément commun aux quatre communications est clair : la demande semble, pour l’instant, contrainte par l’offre. Microsoft et Alphabet l’expriment explicitement, tandis qu’Amazon signale une dynamique similaire. Cela réduit le risque que le marché avait en tête — l’hypothèse d’infrastructures construites sans utilisateurs — et explique pourquoi la trajectoire se poursuit.

    En revanche, le marché se focalise désormais sur un autre sujet : la pente des capex. Les hausses confirmées, notamment chez Microsoft et Alphabet, ont d’ailleurs pesé sur les cours malgré des résultats opérationnels solides. Autrement dit, la rentabilité “à court terme” progresse, mais les investissements “à l’avenir” continuent de monter.

    Dans cet environnement, la logique retenue par les grandes plateformes est que l’infrastructure devra rester en avance pour soutenir une demande qui, selon elles, finira par rattraper le rythme des déploiements. Tant que cette contrainte de capacité persiste, le cycle d’investissements ne semble pas s’interrompre.

    Pour des équipes qui explorent la mise en production de modèles, un accélérateur GPU peut aussi être un complément utile côté validation interne, même si les architectures les plus massives continuent de dépendre du cloud et des capacités data centers.

  • Guide des API, des MCP et des passerelles MCP

    Guide des API, des MCP et des passerelles MCP


    À mesure que les interfaces entre outils d’intelligence artificielle et systèmes d’entreprise se multiplient, la question de la maîtrise des accès et des flux de données devient centrale. Dans ce contexte, les notions de API, de MCP et de passerelles MCP (ou « gateways ») s’articulent autour d’un même objectif : encadrer qui interroge quoi, avec quelles autorisations, et selon quelles règles d’exécution.

    API, MCP et passerelles : de quoi parle-t-on ?

    Une passerelle (« gateway ») est un composant placé en amont de services, souvent implémenté en logiciel. Son rôle consiste notamment à traiter l’authentification, appliquer des limitations de débit, assurer le journalisme des accès, et gérer la surveillance et le contrôle d’accès.

    Si l’usage des MCP augmente, les organisations doivent pouvoir répondre à des questions concrètes : quels outils d’IA demandent des données à quels systèmes, quelles informations sont autorisées, et quelles opérations peuvent être réalisées. Une passerelle sert alors de point de pilotage pour rassembler et appliquer ces contrôles.

    Ce que la passerelle permet… et ses limites

    Le fonctionnement d’une passerelle se situe à un niveau proche du réseau, là où elle arbitre et enregistre le mouvement des données. En revanche, elle ne traite pas les problèmes qui naissent ailleurs, notamment côté logiciel : comportement des modèles de langage, exécution de code déterministe, ou actions initiées par les utilisateurs.

    Sur le plan de la cybersécurité, une passerelle peut être comparée à un pare-feu : utile pour encadrer certains échanges, mais contournable selon les scénarios. Dans certains cas, elle peut aussi donner une fausse impression de sécurité en laissant croire que la protection est complète alors qu’elle ne couvre qu’une partie du risque.

    En pratique, MCP et passerelles d’API peuvent être vues comme des défenses de périmètre. Elles réduisent des risques spécifiques, sans garantir à elles seules l’absence d’incidents liés aux données.

    Pourquoi une approche d’ensemble reste nécessaire

    Encadrer les accès via une gateway est un levier important, mais la sécurité des données et la conformité dépendent aussi de mesures complémentaires : gouvernance des autorisations, segmentation des systèmes, contrôles côté application, durcissement des processus et suivi effectif de ce que fait l’IA une fois l’accès accordé.

    Autrement dit, une architecture robuste combine plusieurs couches de contrôle, plutôt que de s’appuyer uniquement sur un point d’entrée.

    Repères matériels pour sécuriser les flux

    Pour accompagner une stratégie de contrôle des accès et de supervision des échanges, certaines équipes s’équipent de solutions réseau dédiées. Par exemple, un appliance pare-feu peut aider à structurer les règles de filtrage et à centraliser la visibilité des flux, en complément d’une passerelle applicative. Dans le même esprit, un outil d’archivage et de journalisation réseau peut renforcer l’exploitation des logs produits par les passerelles et les services.

  • Le contrôleur d’eau intelligent Eve Aqua vous permet d’arroser votre jardin depuis votre téléphone

    Le contrôleur d’eau intelligent Eve Aqua vous permet d’arroser votre jardin depuis votre téléphone


    Le contrôleur de robinet intelligent Eve Aqua promet de gérer l’arrosage du jardin directement depuis un smartphone. En pratique, l’idée est séduisante : un appareil qui se raccorde au robinet, communique via Wi‑Fi et permet de programmer l’arrosage. Toutefois, l’expérience dépend fortement de deux éléments : la qualité du raccordement matériel et, surtout, la prise en main de l’application.

    Installation : un matériel simple, un joint parfois délicat

    Le montage s’effectue en vissant l’Aqua directement sur le robinet. Si vous utilisez plutôt une ligne d’arrosage au goutte‑à‑goutte que le tuyau classique, un adaptateur est fourni pour relier la conduite à l’appareil.

    Le matériel paraît facile à installer, mais un point a posé problème pendant les tests : obtenir une étanchéité parfaite sur le côté du robinet. Malgré l’utilisation d’une pince, la configuration et l’emplacement de la poignée compliquaient le serrage à l’endroit précis. Résultat : de petites fuites persistaient à ce niveau.

    À noter : la connexion inférieure, celle qui se raccorde au tuyau, semble plus aisée à étancher, notamment parce qu’elle offre moins d’obstacles mécaniques.

    En vue de corriger ce type de défaut, un représentant Eve a évoqué des pistes telles que l’ajout de ruban de plomberie ou l’utilisation d’un adaptateur coudé (ou d’une rallonge de tuyau) pour améliorer l’angle de raccordement. Ces solutions n’ont pas été testées ici, mais elles peuvent être pertinentes selon la configuration du robinet.

    Test du système : Wi‑Fi et intégration, mais une application perfectible

    Une fois les piles installées, l’Aqua peut être associé à un réseau Wi‑Fi 2,4 GHz via l’application Eve. Il est aussi possible d’utiliser HomeKit sur iOS pour certaines fonctions via l’app Maison d’Apple.

    La distinction est importante : l’application Eve s’avère nécessaire pour accéder aux options les plus avancées, notamment le verrouillage enfant et le suivi de la consommation d’eau. En revanche, des commandes manuelles simples et des programmations basiques fonctionnent correctement avec HomeKit.

    Le point faible relevé pendant l’évaluation concerne justement l’application Eve. L’interface, jugée trop chargée, organise le pilotage de l’arrosage à travers un ensemble de scènes, de minuteries et de règles. Le paramétrage d’un simple calendrier on/off a été décrit comme moins intuitif qu’attendu. Une meilleure organisation de l’interface serait, selon ce constat, souhaitable.

    Enfin, le démarrage matériel peut aussi surprendre : la documentation fournie se limite à un guide de démarrage bref et un mode d’emploi minimal. Une partie des utilisateurs pourrait donc avoir besoin de plus de temps ou de patience pour maîtriser les réglages.

    Fiabilité après configuration : des commandes qui répondent

    Une fois les réglages stabilisés, le fonctionnement s’est révélé régulier. Les commandes à la demande ont été exécutées rapidement, et les programmations se sont déclenchées de manière fiable sur plusieurs jours de tests. Aucun incident n’a été signalé pendant cette phase, ce qui renforce l’intérêt du produit une fois la configuration validée.

    Un produit coûteux face à des alternatives

    Le principal frein identifié reste le prix. L’Aqua se positionne comme l’un des contrôleurs de tuyau intelligents les plus chers du marché, nettement au-dessus de certains concurrents capables d’offrir des fonctions similaires via une application.

    Par exemple, la comparaison avec des contrôleurs de type Rachio ou Orbit montre que l’écart de coût peut être significatif : ces options sont généralement disponibles à moins d’environ 100 dollars. Le rapport qualité/prix dépend donc du niveau d’exigence sur l’écosystème et sur le suivi proposé par Eve.

    L’autre différence, souvent mise en avant, concerne l’absence de pont Wi‑Fi dédié : contrairement à d’autres contrôleurs, l’Aqua n’exige pas nécessairement un “hub” supplémentaire pour fonctionner. Mais cet avantage est en partie compensé, selon les observations, par la complexité de la configuration applicative et par les risques de fuite liés à l’étanchéité initiale.

    Suggestions de modèles à considérer

  • SoftBank lance une entreprise de robotique destinée aux centres de données et vise une introduction en bourse de 100 milliards de dollars

    SoftBank lance une entreprise de robotique destinée aux centres de données et vise une introduction en bourse de 100 milliards de dollars


    Alors que la demande en infrastructures numériques s’accélère, plusieurs acteurs cherchent à industrialiser leur construction et à réduire les délais. SoftBank envisagerait de créer une nouvelle société dédiée à la fabrication, via l’automatisation et la robotique, d’éléments essentiels aux data centers. Selon des informations relayées par la presse économique, l’entreprise pourrait aussi viser une introduction en Bourse ambitieuse.

    SoftBank préparerait une structure baptisée Roze AI. L’objectif serait d’améliorer l’efficacité de la construction de data centers aux États-Unis, en s’appuyant notamment sur des robots autonomes intervenant sur les chantiers, afin d’aider à l’assemblage et à l’installation de composants liés aux serveurs.

    Une stratégie portée par l’automatisation

    Le projet s’inscrit dans une tendance plus large du secteur : l’infrastructure informatique devient un levier central de l’automatisation, car elle conditionne la capacité à déployer des services à grande échelle. En mobilisant des technologies robotisées, Roze AI chercherait à standardiser une partie du processus de construction et à limiter certains goulets d’étranglement.

    Dans ce contexte, des outils de conception et de simulation sont souvent utilisés en amont pour mieux planifier les contraintes d’un site. À titre d’illustration, certains professionnels s’appuient sur des systèmes de mesure et de documentation pour le suivi d’exécution ; par exemple, un télémètre laser de chantier peut contribuer à fiabiliser des relevés sur site, même si ces matériels ne sont pas explicitement liés au projet annoncé.

    Objectif d’introduction en Bourse et valorisation

    Toujours d’après les informations rapportées, SoftBank préparerait déjà Roze AI en vue d’une introduction en Bourse. Un scénario évoqué par la presse situerait l’opération au second semestre 2026. Les discussions mentionneraient également une valorisation qui pourrait atteindre 100 milliards de dollars, un chiffre qui, à ce stade, reste une estimation relayée par des médias.

    Ces ambitions susciteraient toutefois des réserves en interne, notamment sur le niveau de valorisation et sur la rapidité du calendrier. Ce type d’interrogations est fréquent lorsqu’une entreprise vise une IPO de grande ampleur alors même que l’exécution industrielle d’un nouveau modèle n’est pas encore entièrement établie.

    Un mouvement plus large chez les géants de la tech

    SoftBank n’est pas le seul à explorer une approche où l’IA et l’automatisation servent à améliorer la productivité industrielle. D’autres initiatives, portées par des groupes technologiques, visent à moderniser des secteurs entiers en combinant acquisition d’actifs et transformation par l’IA.

    L’enjeu pour Roze AI sera de démontrer, sur la durée, une capacité à livrer des infrastructures à moindre coût et avec des délais mieux maîtrisés. La robotique de chantier, la formation des équipes et l’intégration des opérations restent des facteurs déterminants pour transformer une idée industrielle en exécution à grande échelle.

    Sur le plan opérationnel, les projets mobilisent généralement aussi des systèmes de suivi et de sécurité. En complément, certains chantiers utilisent des équipements connectés pour la supervision ; par exemple, un casque de chantier connecté peut aider à documenter et vérifier des étapes d’exécution, même si là encore ces produits ne constituent pas une indication directe sur les choix de Roze AI.

  • Familles des victimes des fusillades de Tumbler Ridge portent plainte contre OpenAI

    Familles des victimes des fusillades de Tumbler Ridge portent plainte contre OpenAI



    Quelques jours après l’excuse publique du PDG d’OpenAI, Sam Altman, adressée aux habitants de Tumbler Ridge (Colombie-Britannique), des familles de victimes du drame survenu le 10 février ont engagé une action en justice contre l’entreprise. Elles reprochent à OpenAI une forme de négligence dans la prise en compte de signaux de risque liés à l’usage de ChatGPT.

    Une fusillade meurtrière au Canada

    Le 10 février, une fusillade survenue dans une école a fait six morts (cinq élèves et un enseignant) et deux blessés graves. L’attaquant présumé, âgé de 18 ans, Jesse Van Rootselaar, s’est ensuite donné la mort. Les enquêteurs ont également indiqué que l’auteur avait tué sa mère et un demi-frère de 11 ans avant de se rendre à l’établissement scolaire.

    Des plaintes déposées en Californie

    Selon les informations rapportées par des médias, des avocats représentant plusieurs familles ont déposé, mercredi, six plaintes distinctes devant une juridiction fédérale à San Francisco. L’une d’elles, portée notamment par une survivante, avance que des conversations menées avec ChatGPT auraient été repérées par les systèmes de sécurité d’OpenAI en juin 2025, plus de six mois avant l’attaque.

    La plainte affirme que ces échanges auraient été associés à des “activités et planification” liées à la violence armée. Elle soutient aussi que l’équipe en charge de la sécurité aurait recommandé d’alerter les autorités, mais qu’OpenAI aurait finalement choisi de désactiver le compte concerné plutôt que de contacter la police. D’après la même plainte, l’intéressée aurait ensuite créé un second compte et poursuivi ses échanges avec ChatGPT.

    La réponse d’OpenAI et l’évolution de ses garde-fous

    Interrogée, OpenAI a indiqué appliquer une politique de tolérance zéro concernant l’utilisation de ses outils pour faciliter des violences. L’entreprise affirme avoir renforcé ses protections, notamment la manière dont ChatGPT repère les signaux de détresse, connecte les personnes à des ressources locales d’accompagnement, améliore l’évaluation et l’escalade des menaces potentielles, et renforce la détection des récidivistes.

    De son côté, OpenAI a aussi publié une note décrivant sa démarche de sécurité. L’entreprise souligne que certains risques ne deviennent visibles qu’au fil du temps : un message isolé peut sembler anodin, alors qu’un ensemble de messages, au sein d’une conversation ou sur plusieurs échanges, pourrait révéler une trajectoire préoccupante.

    Un précédent judiciaire autour des systèmes d’IA

    Ces nouvelles plaintes s’inscrivent dans un mouvement plus large visant à faire répondre les concepteurs de produits d’intelligence artificielle de leurs choix de conception et de leurs mécanismes de prévention. L’année précédente, des parents d’un adolescent décédé par suicide avaient notamment déposé une plainte pour “mort injustifiée” visant une société d’IA, en soutenant que l’outil avait été en mesure d’anticiper des tentatives antérieures.

    Pour les organisations soucieuses de sensibiliser leurs équipes aux risques numériques (et d’encadrer l’usage d’outils conversationnels), certains estiment utile de s’appuyer sur des formations structurées et des supports de conformité. À titre d’exemples, un pack de formation cybersécurité pour entreprises ou un manuel de conformité et bonnes pratiques cybersécurité peuvent aider à formaliser des procédures internes.

  • Grindr : succès sur le circuit des soirées WHCD

    Grindr : succès sur le circuit des soirées WHCD


    La semaine du dîner des correspondants de la Maison-Blanche, surnommée « Nerd Prom », réserve d’ordinaire son lot d’événements mondains et de mises en scène médiatiques. Cette année, le contexte a été brutalement perturbé. Dans ce climat, l’événement le plus commenté n’a pas été un dîner officiel, mais une soirée privée organisée par Grindr, une application de rencontres, qui a choisi de s’inviter au cœur du circuit washingtonien… avec une formule à la fois très politique et volontairement maîtrisée.

    Un pari étonnant sur la scène washingtonienne

    Le lancement d’invitations par Grindr a déclenché une curiosité immédiate. À Washington, il est rare qu’une société de technologie — et a fortiori une app associée aux rencontres — organise une fête à ce niveau de visibilité. L’idée d’une « maison party » la veille du WHCD a fait naître l’espoir d’une parenthèse différente, tout en ravivant la question centrale : pourquoi une entreprise dont la réputation repose sur l’usage intime et les interactions rapides chercherait-elle, ici, à installer son influence en entourant ses invités politiques et médiatiques ?

    Une soirée qui reste dans les limites de la décence

    Malgré le caractère potentiellement sulfureux attendu, l’ambiance est restée largement contenue. La logique washingtonienne — prudence, peur d’un faux pas filmé, crainte de la polémique — a vite repris le dessus. La fête a ressemblé à un moment de relâchement encadré : musique, discussions, réseau d’influence et gestes de proximité, mais sans rupture franche avec les codes. Même lorsque certains imaginaient des débordements, l’ensemble a été dominé par la maîtrise de l’image.

    La réussite passe par le décor et la sélection

    Grindr n’a pas seulement « investi » un lieu : l’événement a été calibré, du choix de la demeure jusqu’à la liste des invités. La soirée s’est tenue dans une résidence de Georgetown, un espace de grande valeur, récemment réaménagé et réputé pour son parc et ses jardins. L’endroit, par sa discrétion et sa mise en scène, a permis de rassembler des acteurs habitués au circuit des grandes adresses tout en créant un sentiment de découverte.

    La foule décrite se composait largement de « power players » : responsables politiques, journalistes, lobbyistes, stratèges et conseillers. Le point marquant n’a pas été le nombre de personnalités très connues, mais la densité des profils capables d’influencer concrètement les décisions.

    Un objectif affiché : peser sur le droit et sécuriser l’accès

    Dans la logique présentée par l’entreprise, l’événement ne relevait pas d’une simple opération de communication. Grindr entendait utiliser cette soirée comme un prolongement d’une stratégie plus large : travailler sur des dossiers de régulation et de protection des utilisateurs, notamment autour de questions d’âge, de sécurité en ligne, et plus largement de conditions d’accès pour les personnes concernées. L’entreprise a aussi insisté sur l’idée de responsabilité vis-à-vis de sa base d’utilisateurs, dans un contexte où les droits LGBTQ font face à des reculs dans plusieurs juridictions.

    Cette approche s’inscrit dans une dynamique bien connue à Washington : la présence, la mise en relation et l’accès à la « table » décisionnelle. Autrement dit, la fête fonctionne comme un outil d’influence, sans nécessairement se transformer en tribune militante.

    Quand la “neutralité” de l’image devient une stratégie

    Grindr a mis en avant une volonté de contrôle sur la narration de l’événement. À la différence d’autres pratiques consistant à co-produire avec des médias, l’entreprise a cherché à préserver la tonalité de sa propre soirée, afin de ne pas laisser d’autres acteurs cadrer le sens de l’opération. Cette posture vise aussi à éviter que l’événement soit réduit à des clichés — ceux d’une app « glamour » ou d’une fête purement sociale — alors qu’il s’agit, en filigrane, d’un exercice de lobbying et de relations politiques.

    L’autre point, plus discret, tient à la façon dont le lieu et le rythme ont contribué à neutraliser la charge culturelle. En choisissant un format de fête « propre », marqué par un service soigné et des interactions cadrées, Grindr a minimisé les angles susceptibles de nourrir une controverse facile.

    Une inquiétude plus large : l’érosion des droits et la question de l’exposition

    Au-delà de la soirée, l’enjeu sous-jacent reste sérieux. La protection des droits LGBTQ n’est pas présentée comme acquise, et l’entreprise souligne l’existence d’un risque d’atteinte supplémentaire via l’évolution du cadre légal et la manière dont certaines données peuvent être traitées. Dans ce contexte, la capacité à « rester en ligne » sans être exposé de façon punitive devient un sujet politique, pas seulement technique.

    Pour les utilisateurs qui cherchent à préserver leur confidentialité dans la vie numérique, une vigilance sur les appareils et les réglages de sécurité reste un réflexe utile. Par exemple, l’adoption d’un stockage chiffré type SSD avec chiffrement matériel peut aider à sécuriser certains contenus localement, tandis qu’un accessoire de protection avec verrouillage biométrique et maintien du téléphone s’intègre dans une démarche plus globale de réduction des risques en cas d’accès non autorisé.

    Ce que révèle cette soirée : l’influence comme nouveau langage

    Au final, l’événement Grindr illustre une tendance : dans un Washington où l’accès et la relation comptent autant que les discours, les entreprises cherchent des formats capables de rassembler des interlocuteurs de tous bords. La fête n’est ni une simple opération de marque, ni un manifeste. C’est plutôt un dispositif hybride, combinant ambiance, sélection et objectif réglementaire.

    Et si Grindr a gagné l’attention, ce n’est pas uniquement pour son caractère inattendu. C’est parce que la soirée a su occuper un espace très particulier : celui où l’on peut discuter d’avenir politique tout en restant, à première vue, dans le registre du divertissement.