Catégorie : Technologie

  • Trump envisagerait de limoger le commissaire de la FDA, Marty Makary

    Trump envisagerait de limoger le commissaire de la FDA, Marty Makary



    Le président Donald Trump aurait donné son feu vert à un projet de révocation du commissaire de la Food and Drug Administration (FDA), Marty Makary. Plusieurs médias indiquent toutefois que la décision ne serait pas encore finalisée et pourrait évoluer selon le calendrier et les arbitrages au sein de l’administration.

    Un départ envisagé après une année de tensions à la FDA

    Selon des informations relayées par la presse américaine, la démarche viserait à remplacer Marty Makary au terme d’une période particulièrement agitée pour la FDA. Ces derniers mois, l’agence aurait été confrontée à des controverses liées à des coupes budgétaires, à des épisodes de tensions internes, ainsi qu’à des décisions sensibles touchant la vaccination, les thérapies géniques, la régulation de l’avortement médicamenteux et le traitement de certains produits à base de nicotine.

    Dans ce contexte, l’éviction projetée s’inscrirait dans une séquence de changements plus large au sein d’institutions sanitaires, marquée par des départs répétés et des postes parfois vacants.

    Pressions politiques autour de la réglementation du vapotage

    Le dossier du vapotage occuperait une place centrale dans les raisons évoquées. La presse a rapporté que Trump aurait repris contact directement avec le commissaire Makary, lui reprochant de ne pas aller assez vite pour autoriser des cigarettes électroniques aromatisées et des produits à base de nicotine.

    Plus précisément, Marty Makary aurait été perçu comme plus prudent sur certaines saveurs, avec la crainte qu’elles ne stimulent la consommation chez les jeunes. À la suite de la pression politique, la FDA aurait néanmoins autorisé des produits correspondants, selon les informations rendues publiques.

    Incertitudes sur le successeur par intérim

    Un point reste flou : qui assurerait l’intérim après un éventuel départ de Marty Makary. D’après les éléments rapportés, l’administration n’aurait pas encore tranché sur la personne appelée à diriger la FDA en attendant la nomination d’un nouveau commissaire.

    Ce que cette décision pourrait changer pour la FDA

    Si la révocation venait à être confirmée, elle s’ajouterait à une série de vacatures ou de transitions au sommet des agences sanitaires placées sous l’autorité du gouvernement. Le sujet revêt une dimension institutionnelle : la stabilité de l’encadrement influence directement les rythmes d’évaluation des dossiers, les arbitrages réglementaires et la capacité de l’agence à maintenir une ligne cohérente face aux pressions externes.

    Pour suivre l’évolution des informations et comprendre les démarches réglementaires autour des produits de santé, certains lecteurs s’appuient sur des outils de surveillance de l’actualité. À titre d’exemple, un

    Ces options ne remplacent pas le travail journalistique, mais peuvent faciliter la compréhension du contexte.

  • Musk contre Altman, semaine 2 : OpenAI répond et Shivon Zilis révèle les manœuvres de Musk pour recruter Sam Altman

    Musk contre Altman, semaine 2 : OpenAI répond et Shivon Zilis révèle les manœuvres de Musk pour recruter Sam Altman


    Lors d’une nouvelle séquence d’audiences autour du bras de fer entre Elon Musk et Sam Altman, les témoignages ont mis en lumière des tensions anciennes liées à la structuration d’OpenAI. Les échanges décrits, loin d’être anecdotiques, renvoient à une question centrale : qui doit détenir le contrôle d’un projet visant à développer une intelligence artificielle capable de rivaliser avec l’humain sur de nombreuses tâches cognitives ?

    Des discussions autour d’une entité à but lucratif

    Au cours des six semaines qui ont précédé la consolidation des plans, Brockman a décrit des discussions intenses entre Musk et d’autres cofondateurs concernant la création d’une structure à but lucratif. L’objectif était de réunir des capitaux suffisants pour bâtir une intelligence artificielle générale, une technologie pensée pour performer à un haut niveau sur des compétences variées.

    Selon son témoignage, Musk souhaitait obtenir la majorité des parts de cette entité, ainsi que le pouvoir de choisir une majorité des membres du conseil d’administration. Il demandait aussi à en devenir le directeur général (CEO).

    Une proposition d’équité contestée

    Brockman a expliqué qu’en août 2017, lui et plusieurs cofondateurs se sont réunis pour discuter des termes de cette future organisation à but lucratif. Ilya Sutskever, alors chef scientifique d’OpenAI, se serait présenté avec un objet associé à Tesla présenté comme un signe de bonne volonté, en échange de véhicules précédemment donnés par Musk.

    Dans ce contexte, Brockman a indiqué que sa proposition visait à répartir les parts de manière égale entre les participants. D’après lui, Musk aurait alors marqué une pause, avant de répondre : « I decline » (« je refuse »). Brockman a aussi décrit un moment d’agitation pendant lequel Musk aurait quitté la réunion, en emportant l’objet apporté.

    Le cœur du conflit : contrôle et gouvernance

    Après cet épisode, Brockman a déclaré avoir hésité sur la suite : poursuivre le travail avec Musk ou s’en détacher. Il a décrit un choix « à la croisée des chemins », opposant l’acceptation des conditions d’Elon Musk à leur rejet, avec l’idée que Musk créerait alors sa propre initiative.

    Le point de blocage, selon Brockman, concernait l’impossibilité d’accepter une cession de contrôle unilatéral et absolu, potentiellement décisif pour le développement futur d’une intelligence artificielle de type AGI.

    Les motivations contestées

    Dans la partie du dossier évoquée, l’argumentation présentée par la défense met l’accent sur une lecture différente de la situation. Molo a soutenu que Brockman agirait davantage par intérêt personnel que par attachement à la mission à but non lucratif d’OpenAI, visant à développer une IA au service de l’humanité.

    Brockman a contesté cette interprétation, affirmant que sa motivation principale était liée à la mission. Il a indiqué que ce positionnement reste, selon lui, valable à ce jour.

    Ce que révèle l’affaire

    Au-delà des éléments factuels rapportés, le témoignage insiste sur un enjeu récurrent dans les projets à forte intensité technologique : la gouvernance. Les discussions autour de la propriété, de la direction et de la composition du conseil d’administration apparaissent comme des facteurs déterminants, particulièrement lorsque l’objectif revendiqué est de franchir un cap technologique majeur.

    Pour suivre ce type d’évolution et comprendre la logique des décisions, il peut être utile de disposer d’outils de prise de notes et de synthèse. À titre discret, certains lecteurs se tournent vers un carnet numérique comme un clavier Bluetooth pour organiser ses résumés ou vers un micro USB pour enregistrer des comptes rendus pendant le suivi des dossiers.

  • Amazon Prime Video ajoute un flux de « clips » façon TikTok dans son application

    Amazon Prime Video ajoute un flux de « clips » façon TikTok dans son application


    Prime Video ajoute à son application un flux de vidéos courtes inspiré des formats « TikTok-like ». Baptisé « Clips », il vise à améliorer la découverte des contenus via des extraits verticaux, avec un objectif simple : inciter l’utilisateur à passer de la suggestion à la lecture d’une série ou d’un film complet.

    Un flux d’extraits pensé pour donner envie

    Selon l’annonce d’Amazon, « Clips » commencera par diffuser des extraits issus des titres disponibles sur Prime Video. L’idée est de proposer des morceaux suffisamment marquants pour capter l’attention, puis d’amener l’utilisateur vers la suite du parcours : ajout au suivi, partage, ou accès au contenu via l’abonnement et, selon les cas, des options de location ou d’achat.

    Le flux est présenté comme un moyen de personnaliser le parcours de navigation. L’application s’appuie sur des « snippets » courts, adaptés aux centres d’intérêt, pour permettre une exploration rapide quand l’utilisateur dispose de quelques minutes.

    Un mouvement plus large dans le streaming

    L’arrivée de « Clips » s’inscrit dans une tendance observée chez plusieurs acteurs du divertissement. Ces dernières années, des plateformes ont progressivement adopté des interfaces orientées découverte, avec des formats courts et verticaux conçus pour retenir plus longtemps l’attention à l’écran.

    Amazon indique par ailleurs avoir déjà testé un format similaire pendant la saison NBA, sous la forme d’un fil d’aperçus défilable, proche d’une logique de navigation « à la vidéo courte ».

    Déploiement progressif et accès via l’interface mobile

    Le déploiement démarre d’abord auprès de certains clients aux États-Unis sur iOS, Android et tablettes Fire. La disponibilité devrait ensuite s’élargir au cours de l’été.

    Concrètement, « Clips » sera accessible en faisant défiler la page d’accueil mobile de Prime Video, via un carrousel dédié. Le contenu est ensuite présenté en plein écran vertical, conçu pour un défilement continu.

    Ce que cela change pour l’utilisateur

    En pratique, « Clips » modifie la logique de découverte : l’utilisateur ne cherche plus seulement des titres via des catégories, mais découvre via des extraits courts, avec une transition facilitée vers la lecture complète. Cette approche peut réduire le temps passé à parcourir de longues listes, tout en augmentant la probabilité de tomber sur un contenu correspondant aux goûts.

    Elle pose aussi une question d’équilibre pour les plateformes : comment maintenir la pertinence des recommandations et éviter que l’expérience ne devienne trop « distraction orientée ». Pour l’instant, le déploiement progressif permettra de mesurer l’accueil et l’impact sur l’engagement.

    Équipement : profiter de ce type de flux sur écran

    Pour visionner confortablement ce format vertical sur mobile et explorer les extraits, un smartphone avec une bonne luminosité et une fréquence d’affichage stable peut faire la différence. Si vous cherchez un modèle polyvalent, vous pouvez regarder par exemple un smartphone avec écran AMOLED haute luminosité. Sur tablette, un écran plus grand améliore souvent la lecture des menus et des vignettes, ce qui peut être utile lorsque le flux prend toute la hauteur de l’écran — par exemple via une tablette Android entre 10 et 12 pouces.

  • Toutes les dernières mises à jour sur les centres de données alimentés par l’IA

    Toutes les dernières mises à jour sur les centres de données alimentés par l’IA


    La question des data centers alimentés par l’intelligence artificielle (IA) s’impose comme un sujet central, à la fois pour les industriels du numérique et pour les décideurs publics. Derrière la promesse de puissance de calcul, les mises à jour récentes portent surtout sur l’accès aux infrastructures : disponibilité électrique, refroidissement, approvisionnement en équipements, ainsi que localisation des capacités de traitement. Autrement dit, la “course” à l’IA se joue autant sur le terrain logistique que sur les serveurs eux-mêmes.

    Ce que révèlent les dernières tendances sur les data centers IA

    Les nouveautés observées dans le secteur convergent vers un même constat : les projets IA exigent des montées en capacité rapides, mais aussi une ingénierie très encadrée. Les exploitants et les constructeurs mettent davantage l’accent sur la modularité des installations, afin de réduire les délais entre la décision d’investir et la mise en service.

    Trois axes reviennent régulièrement :

    • Puissance électrique plus disponible : la capacité des réseaux et des postes de transformation devient un facteur déterminant.
    • Refroidissement optimisé : l’efficacité thermique et la gestion de l’eau (quand elle est utilisée) sont au cœur des modèles d’exploitation.
    • Architecture réseau et sécurité : les exigences liées aux échanges de données et à la résilience opérationnelle augmentent avec la taille des grappes de serveurs.

    Électricité, refroidissement et délais : les “goulots” du moment

    Dans la plupart des projets IA, l’électricité constitue le premier goulot. Les mises à niveau du réseau, les délais d’obtention d’autorisations et la disponibilité des équipements électriques peuvent ralentir des calendriers initialement ambitieux. En parallèle, le refroidissement doit suivre le rythme : la performance énergétique ne se limite pas à la consommation des machines, elle dépend aussi du dimensionnement de l’ensemble (allées, échangeurs, circuits de ventilation ou systèmes plus avancés).

    Les acteurs cherchent donc à sécuriser leurs approvisionnements, notamment en planifiant les phases de déploiement par “tranches” et en améliorant le pilotage opérationnel (surveillance, ajustement des charges, maintenance préventive).

    Localisation : pourquoi l’implantation géographique pèse de plus en plus

    Le choix des sites influence directement la vitesse de mise en œuvre et les coûts globaux. Les régions capables d’offrir une infrastructure énergétique robuste, des réseaux de transport adaptés et des conditions réglementaires claires sont privilégiées. À cela s’ajoute la dimension logistique : l’acheminement du matériel et des composants (serveurs, systèmes de refroidissement, équipements électriques) peut être un facteur de décalage en période de forte demande.

    Un marché en recomposition : nouveaux modèles et montées en capacité

    Au-delà des constructions “à grande échelle”, on observe une diversification des approches. Certaines entreprises privilégient des capacités ajustables, tandis que d’autres se concentrent sur des déploiements accélérés pour répondre à des besoins de calcul plus immédiats. Dans tous les cas, la tendance est à la hausse de la densité de puissance, ce qui renforce l’importance des normes d’exploitation et des systèmes de supervision.

    Le secteur fait aussi face à une question de durabilité : la pression sur l’efficacité énergétique et la recherche de solutions de refroidissement plus performantes deviennent progressivement des critères de sélection, y compris pour les investisseurs et les collectivités.

    Analyse : un signal clair sur la maturité des projets IA

    Globalement, les mises à jour récentes suggèrent une maturation du marché. L’innovation progresse, mais la réussite dépend davantage de l’exécution industrielle : délais, intégration des systèmes, capacité énergétique réelle, et efficacité du refroidissement. Autrement dit, les performances de l’IA ne sont pas uniquement une affaire d’algorithmes ; elles reposent sur une chaîne d’infrastructures qui doit être solide, mesurée et durable.

    Pour les entreprises qui évaluent leurs besoins informatiques, la cohérence entre la stratégie applicative et l’infrastructure disponible devient un enjeu central. Cela peut passer par la modernisation du matériel existant, par l’optimisation du réseau interne ou par le choix d’équipements plus efficaces sur le plan énergétique.

    Repères pratiques : équipements à surveiller

    Dans les environnements qui se préparent à accueillir des charges IA, plusieurs segments d’équipement gagnent en importance. Les organisations évaluent souvent la performance de l’alimentation électrique, la stabilité et la qualité du refroidissement, ainsi que la capacité des équipements réseau à supporter des transferts soutenus.

    Sur ce marché, l’enjeu n’est pas seulement de “faire tourner” des charges plus lourdes : il s’agit de maintenir un niveau de service stable, tout en maîtrisant l’énergie et les risques opérationnels. Les prochaines mises à jour seront donc attendues sur la capacité à accélérer les déploiements, sans dégrader l’efficacité globale.

  • Le ministère de la Défense lance un site Web sur les OVNIS, mais il n’y a pas grand-chose à voir

    Le ministère de la Défense lance un site Web sur les OVNIS, mais il n’y a pas grand-chose à voir



    Le gouvernement américain a annoncé la mise en ligne d’une page dédiée aux phénomènes aériens non identifiés (UAP), assortie de la promesse de publier, au fil du temps, des documents présentés comme inédits. À première vue, la démarche ressemble à une tentative de répondre aux spéculations autour du sujet. Mais l’essentiel à retenir est simple : malgré un habillage numérique orienté “fantasmes” et complots, les éléments mis en avant ne suffisent pas à apporter une preuve concluante d’origine extraterrestre.

    Une page gouvernementale, mais peu de preuves concrètes

    La nouvelle plateforme, hébergée sous l’adresse war.gov/UFO, regroupe des images et des fichiers provenant de plusieurs institutions, dont le Pentagone, le FBI et la NASA. Le contenu est présenté via une navigation en forme de “carrousel”, un format qui facilite l’exploration rapide mais qui, surtout, donne l’impression de s’adresser à un public déjà familier des récits liés aux OVNI.

    En pratique, après quelques consultations, il apparaît que la page ne révèle pas de “preuve choc” : les documents et supports diffusés ne démontrent pas, à eux seuls, que des visiteurs extraterrestres auraient interagi avec la Terre. La publication semble davantage illustrer la façon dont une administration classe et archiver des observations inexpliquées que fournir un dossier apte à clore le débat.

    Pourquoi maintenant ? Entre logique de divulgation et contexte politique

    Les annonces s’inscrivent dans un climat où les rumeurs sur l’existence de connaissances gouvernementales “cachées” circulent depuis longtemps. Cependant, la recherche et l’exploration officielle de ces phénomènes ont été formalisées plus tard, avec la création de programmes et d’équipes dédiées au suivi des UAP.

    La mise en ligne récente s’appuie aussi sur des déclarations politiques antérieures ayant appelé des agences à entamer un processus de publication de documents liés aux phénomènes aériens non identifiés et aux objets volants non identifiés. Sans conclure sur des intentions précises, le calendrier contribue à renforcer l’idée que la page répond à la fois à une demande médiatique et à des dynamiques politiques internes.

    Une histoire d’enquêtes, de classements et de limites

    Le sujet des UAP a déjà fait l’objet de recherches coordonnées au sein de structures successives, dont certains dispositifs dédiés à l’étude de ces observations. Les épisodes médiatisés au cours de la première présidence Trump ont aussi montré que les vidéos évoquées comme potentiellement extraterrestres se sont, dans certains cas, heurtées à des évaluations gouvernementales concluant à l’absence d’indices suffisants pour attribuer l’origine à un engin alien.

    À ce stade, il reste donc difficile d’affirmer que les nouveaux documents changeront radicalement l’état des connaissances. En revanche, leur publication peut être utile pour comprendre la manière dont les institutions traitent des données incomplètes, des rapports de terrain et des observations dont la cause n’a pas été immédiatement établie.

    Ce que ces fichiers permettent (et ne permettent pas) de faire

    • Permettre : découvrir comment des administrations conservent, décrivent et contextualisent des phénomènes non expliqués.

    • Ne permet pas : trancher de façon définitive l’origine des observations, notamment vers une hypothèse extraterrestre.

    Pour suivre de manière prudente ce type de contenu, certains amateurs s’appuient sur des équipements de collecte ou d’analyse vidéo. Par exemple, un jumelles d’observation robustes peut aider à mieux cadrer les objets célestes, tandis qu’un stockage compatible pour enregistrement vidéo facilite la conservation de séquences utiles lors d’observations sur le terrain—sans toutefois résoudre, à lui seul, la question de l’origine.

    Au final, cette nouvelle page illustre surtout un phénomène récurrent : lorsque des données anciennes sont réunies et présentées, l’intérêt principal se situe moins dans la révélation d’une certitude que dans l’examen rigoureux de ce qui est connu, de ce qui reste inexpliqué et de ce qui n’est pas vérifiable.

  • Quantiques mobiles : fabrication de qubits capables de se déplacer

    Quantiques mobiles : fabrication de qubits capables de se déplacer


    Dans l’informatique quantique, la question de l’interconnexion entre qubits conditionne fortement la manière d’envisager la correction d’erreurs. Or, pour de nombreux dispositifs fabriqués en laboratoire, les connexions électriques une fois intégrées au circuit restent figées. Cette rigidité complique l’adoption de protocoles plus performants apparus après la production du matériel. Une nouvelle étude s’attaque précisément à cette limite, en montrant qu’une puce à points quantiques peut, dans une certaine mesure, déplacer des qubits.

    Pourquoi les schémas de correction d’erreurs sont difficiles à modifier

    Comme tout circuit électronique fabriqué industriellement, une puce quantique intègre des structures câblées en amont de ses performances. Dans le cas des points quantiques, le système de connexions qui permet d’activer et de coupler les qubits est déterminé pendant la fabrication.

    Or, les schémas de correction d’erreurs quantiques ne demandent pas tous les mêmes relations entre les qubits. Si une nouvelle méthode plus efficace est proposée après la fabrication d’une puce, il n’est pas toujours possible de la mettre en œuvre sur ce matériel “déjà câblé”. Résultat : même si certains algorithmes pourraient tirer profit d’une correction d’erreurs plus simple, les puces correspondantes manqueraient de la flexibilité nécessaire pour changer de stratégie une fois installées.

    Les points quantiques sont souvent perçus comme un exemple typique de ces compromis : il est relativement plus simple de fabriquer de nombreux points et d’y associer les éléments permettant de les contrôler, mais il serait plus difficile d’exploiter la même souplesse que d’autres types de qubits.

    L’objectif de l’article est de montrer que cette conclusion n’est pas forcément définitive.

    Déplacer des électrons dans une puce à points quantiques

    Les travaux ont été menés en collaboration entre des chercheurs de l’université de technologie de Delft et la startup QuTech. L’équipe a conçu une puce portant une ligne de points quantiques. Au départ, les électrons sont placés aux extrémités, chacun portant un état quantique associé à son spin.

    Grâce à des impulsions électriques adaptées, les chercheurs parviennent à faire migrer progressivement les électrons vers les positions centrales, en rapprochant les spins. Le déplacement ne s’effectue pas à la vitesse de commutation d’un circuit classique, mais il reste suffisamment rapide pour réaliser des opérations quantiques.

    Lorsque les électrons sont assez proches, leurs fonctions d’onde se recouvrent. À ce stade, il devient possible d’effectuer des portes quantiques à deux qubits, opérations essentielles pour créer des corrélations quantiques entre deux spins. Ces portes sont considérées comme nécessaires à la construction de qubits logiques protégés par correction d’erreurs, mais aussi pour exécuter des calculs quantiques.

    Vérifications expérimentales et lien avec la téléportation

    Les chercheurs ont ensuite confirmé qu’ils pouvaient ramener les électrons à leurs positions initiales. Des mesures ont montré que l’intrication des spins persistait après le déplacement puis le retour, ce qui indique que les opérations effectuées ne détruisent pas nécessairement la structure quantique recherchée.

    Ils ont également relié ces résultats à la téléportation quantique. Comme cette procédure requiert elle aussi une porte à deux qubits, l’équipe démontre qu’un protocole de téléportation peut être appliqué dans ce contexte. En pratique, la téléportation peut servir à “réassigner” des états entre qubits séparés, ce qui renforce l’intérêt d’un système capable de déplacer des qubits ou d’en étendre l’influence à distance.

    Intérêt et limites à surveiller

    Les résultats suggèrent que les points quantiques pourraient offrir davantage de flexibilité qu’on ne le pensait, au moins pour certaines architectures. Toutefois, la correction d’erreurs à grande échelle dépend d’un ensemble de paramètres : fidélité des portes, contrôlabilité sur plusieurs qubits, cohérence dans le temps et compatibilité avec des schémas complets de redondance.

    Dans cette perspective, la valeur de ce type de démarche tient surtout à la possibilité d’ouvrir de nouveaux schémas d’ingénierie : au lieu d’accepter que tout soit figé dès la fabrication, il devient envisageable d’exploiter le mouvement contrôlé de certains qubits pour mieux adapter le couplage à un protocole donné.

    Pour piloter ce type d’expérimentations, les laboratoires s’appuient généralement sur des équipements capables de générer des signaux précis et de mesurer des réponses à haute résolution. À titre indicatif, des instruments comme un oscilloscope numériseur 4 voies ou un générateur de formes arbitraires sont souvent utilisés pour produire et synchroniser des impulsions de contrôle, même si les choix exacts dépendent des exigences du montage.

  • Discord est de retour après une panne ayant déconnecté certains utilisateurs

    Discord est de retour après une panne ayant déconnecté certains utilisateurs


    Discord revient progressivement à la normale après une brève panne qui a touché une partie des utilisateurs. Pendant cette interruption, certains n’ont pas pu accéder à l’application, notamment pour se connecter et échanger des messages.

    Une panne liée aux systèmes d’API

    La plateforme a d’abord indiqué, en début d’après-midi, qu’elle examinait un problème affectant ses systèmes d’interface de programmation (API). Peu après, Discord a affirmé avoir identifié l’origine de la difficulté, tout en précisant que l’impact se poursuivait pour certains comptes.

    Selon les informations communiquées par l’entreprise, les dysfonctionnements n’étaient pas limités à une seule fonctionnalité : ils concernaient l’accès au service et les opérations courantes comme la connexion et l’envoi de messages.

    Retour en ligne et rétablissement progressif

    Discord a ensuite signalé un début de rétablissement, avec une amélioration marquée de la situation côté systèmes. Toutefois, au moment des dernières évaluations, la plateforme n’était pas encore en « état de santé complète » pour tout le monde.

    La situation s’est finalement stabilisée : l’entreprise a fait savoir que toutes les fonctionnalités critiques avaient été rétablies pour l’ensemble des utilisateurs.

    Ce que ce type d’incident implique pour les utilisateurs

    Au-delà de la gêne immédiate, ces pannes rappellent la dépendance de Discord à ses infrastructures côté serveurs. Même lorsqu’un problème est identifié rapidement, la restauration peut prendre un certain temps, le temps que les systèmes reprennent un fonctionnement homogène pour tous.

    • En cas de difficulté à se connecter, il peut être utile d’attendre quelques minutes avant de relancer l’application.
    • Les problèmes peuvent varier selon les appareils et les comptes, surtout lors d’un redémarrage progressif des services.

    Pour continuer à discuter sans dépendre d’un seul appareil, certains utilisateurs privilégient une configuration mobile fiable. Par exemple, un chargeur USB-C 45 W peut s’avérer utile en cas de sessions prolongées, notamment pendant les déplacements.

    Sur ordinateur, une clavier compact améliore souvent l’expérience de saisie lors de discussions intensives, ce qui peut être appréciable lorsque l’accès au service revient progressivement.

  • Voici la promesse de Yarbo pour réparer le robot tondeuse qui m’a percuté

    Voici la promesse de Yarbo pour réparer le robot tondeuse qui m’a percuté


    Yarbo répond à un rapport de sécurité ayant mis en lumière plusieurs failles supposées liées à son système de diagnostic à distance, à la gestion des identifiants et au traitement des données. Dans une déclaration publiée après l’intervention d’un chercheur, la société reconnaît que sa communication initiale n’a pas reflété la gravité des problèmes soulevés et annonce des corrections prioritaires, ainsi qu’un renforcement durable de son architecture de sécurité.

    Un constat jugé sérieux, mais partiellement contextualisé

    Selon Yarbo, les points abordés concernent principalement des choix techniques plus anciens, présents dans certaines fonctions de diagnostic à distance, de gestion d’accès et de circulation de données. La société indique aussi que certains éléments décrits dans le rapport ne correspondraient pas, selon elle, au comportement par défaut des robots actuellement commercialisés, ou ne constitueraient pas des vulnérabilités indépendantes.

    Yarbo met en avant plusieurs axes : réduire les chemins d’accès historiques, resserrer les permissions, et évoluer vers des identifiants au niveau des appareils, mieux auditables. La société dit aussi vouloir améliorer la visibilité et le contrôle des utilisateurs sur les fonctions de diagnostic à distance.

    Corrections déjà engagées et travaux en cours

    La marque affirme travailler en parallèle avec ses équipes d’ingénierie, produit, juridique et support. Elle annonce que la mise en conformité se fait par étapes, notamment via l’abandon progressif des serveurs et canaux d’accès historiques.

    Yarbo indique également accélérer des mises à jour de sécurité « over-the-air » et des protections côté serveur. La première vague d’updates devrait commencer sous une semaine, avec une mise à jour de firmware de sécurité déployée vers l’ensemble des robots concernés.

    Sur le plan pratique, la société précise que l’installation nécessiterait une connexion à Internet du robot pendant un court moment. Une fois la mise à jour appliquée, l’utilisateur pourrait revenir à ses réglages réseau habituels.

    Objectif : limiter les accès distants persistants

    Le communiqué revient sur des mécanismes évoqués dans le rapport, notamment un redémarrage automatique du client « FRP » via des tâches planifiées ou des mécanismes de récupération de service. Yarbo reconnaît que cela peut compliquer la désactivation manuelle de certains canaux d’accès à distance, mais affirme que le cœur du sujet réside dans l’existence et la configuration de la « tunnel » distant.

    Dans ce cadre, l’entreprise dit viser à désactiver ou restreindre les tunnels, introduire des règles d’autorisation (« allowlisting ») et améliorer l’auditabilité, tout en supprimant les voies d’accès à distance persistantes jugées inutiles.

    Protections contre la suppression de fichiers : clarification et réexamen

    Yarbo aborde aussi une fonction de surveillance de fichiers mentionnée dans le rapport, pouvant restaurer certains éléments supprimés. D’après elle, il s’agirait à l’origine d’un mécanisme de fiabilité, conçu pour empêcher la corruption accidentelle de fichiers critiques, sans vocation d’accès à distance.

    La société souligne toutefois qu’un mécanisme rendant plus difficile la suppression de composants liés à l’accès distant peut susciter des inquiétudes de confiance. Elle annonce donc une revue de ce qui doit rester protégé, et de ce qui devrait être supprimé, simplifié ou placé sous contrôle utilisateur.

    Rapport, configurations historiques et ambitions de sécurité

    Yarbo insiste sur une distinction : certaines observations concerneraient des infrastructures anciennes, des services cloud historiques, des configurations spécifiques à des revendeurs ou encore des environnements internes de test. La marque dit vouloir clarifier ce qui s’applique réellement aux appareils de production actuels, et ce qui relève de configurations passées.

    Au-delà des corrections ponctuelles, la société annonce une amélioration plus large de ses processus internes de revue, de remédiation et de gouvernance en sécurité. Elle indique aussi vouloir mieux structurer la réception des signalements, en lançant un canal dédié pour la divulgation responsable.

    Pour les utilisateurs, cette séquence rappelle l’importance de la mise à jour logicielle et de la gestion du niveau de connectivité des équipements connectés. Certains propriétaires choisissent aussi de segmenter le réseau domestique afin de limiter l’exposition des appareils automatisés. À titre d’exemple, un routeur avec fonctions de contrôle du trafic et de segmentation (réseaux séparés) peut aider à cadrer la connectivité d’objets connectés, comme un routeur Wi‑Fi maillé doté d’un réseau invité.

    Produits et maintenance : quoi surveiller en pratique

    Au moment où des correctifs sont déployés, l’enjeu principal pour les propriétaires de tondeuses robots reste de vérifier que la mise à jour de sécurité a bien été appliquée et de conserver, si besoin, une connectivité limitée aux fenêtres nécessaires. Dans la même logique, certains utilisateurs privilégient des dispositifs de contrôle et de suivi de l’état réseau pour détecter rapidement toute anomalie de connectivité, par exemple avec un petit outil de monitoring réseau compatible avec leur configuration domestique.

    Dans son message, Yarbo dit comprendre les inquiétudes des clients et présente des excuses, tout en annonçant des actions concrètes et une évolution plus systémique. Reste à voir, dans les prochaines mises à jour, la portée exacte des changements sur les modèles concernés et le niveau de transparence qui suivra l’effort de remédiation.

  • Employés licenciés d’Oracle : négociations pour une indemnité majorée refusées par l’entreprise

    Employés licenciés d’Oracle : négociations pour une indemnité majorée refusées par l’entreprise


    Oracle a procédé en fin mars à des licenciements massifs, en informant une partie des employés par email. Les personnes concernées ont ensuite reçu une proposition d’indemnités de départ jugée « standard » par l’entreprise, mais contestée sur plusieurs points, notamment concernant la rémunération en actions et la manière dont certaines protections légales seraient calculées.

    Une annonce immédiate, suivie d’une proposition d’indemnités

    Selon des témoignages relayés, certains salariés ont appris la déconnexion de leurs accès informatiques peu après la procédure, avant de recevoir un email confirmant la fin de leur poste. La proposition d’indemnités est arrivée quelques jours plus tard, dans des conditions décrites comme un cadre de négociation très limité.

    Un package indemnitaire « classique », mais avec une clause sensible

    Oracle a proposé des conditions généralement proches de celles qu’on observe dans de nombreux plans de réduction d’effectifs aux États-Unis : quatre semaines de salaire pour la première année d’ancienneté, puis une semaine supplémentaire par année, avec un plafond fixé à 26 semaines. L’entreprise couvrait également un mois d’assurance santé via le dispositif COBRA.

    Le principal point de friction concerne toutefois la partie variable liée aux actions. Même si les RSU (unités d’actions) représentent souvent une part importante de la rémunération dans la tech, Oracle n’aurait pas accéléré la part d’actions qui devait encore être acquise après la date de licenciement. Les actions non encore acquises auraient alors été perdues.

    Dans certains cas, les salariés concernés ont indiqué que la perte pouvait atteindre des montants très élevés, les RSU constituant une large portion de leur rémunération totale.

    Remote work, protections et interprétations juridiques

    Une autre contestation évoquée par des ex-employés tient à la classification en « télétravail ». Des salariés se seraient vu refuser l’accès à certaines protections associées à des seuils et à des règles de notification préalable, sous prétexte que leur poste était rattaché à un lieu moins protecteur que des États comme la Californie ou New York.

    Le cadre juridique américain connu sous le nom de WARN Act impose, dans certains cas de licenciements de masse, un préavis. L’interprétation de la localisation—notamment via la distinction employés basés sur un site versus employés classés à distance—peut influencer l’application pratique de ces exigences. Des salariés auraient découvert tardivement qu’ils étaient classés comme télétravailleurs, parfois alors qu’ils travaillaient près d’un bureau en mode hybride.

    Par ailleurs, même en cas d’application du préavis, les indemnités ne signifient pas toujours un montant supplémentaire : selon un ancien salarié, Oracle aurait intégré le paiement correspondant à deux mois de préavis dans son calcul global d’indemnités.

    Une tentative de négociation collective refusée

    À en croire les éléments disponibles, un groupe d’employés a tenté de pousser l’entreprise à revoir ses conditions. Une partie des salariés a même rassemblé des signatures dans une démarche publique visant à rapprocher les offres d’Oracle de celles observées chez d’autres acteurs de la tech.

    Toutefois, Oracle n’aurait pas engagé de discussion : la proposition aurait été présentée comme « prise ou à laisser », selon le témoignage d’un employé ayant tenté une démarche collective. L’entreprise a, en conséquence, refusé de négocier et n’aurait pas fait de commentaire détaillé sur les critères de classification et sur la tentative de renégociation.

    Ce que révèle l’épisode sur les protections des salariés

    Au-delà du cas Oracle, l’affaire souligne un déséquilibre fréquent lors des licenciements dans le secteur technologique : les rémunérations élevées—souvent portées par les actions—peuvent se transformer, au moment de la sortie, en éléments moins « sécurisés » que le salaire fixe. Les modalités exactes d’acquisition des actions et le périmètre des protections applicables dépendent de clauses et d’interprétations administratives qui laissent, dans la pratique, peu de marge aux salariés.

    Dans ce contexte, beaucoup d’employés cherchent aussi à mieux comprendre leurs droits et leurs démarches, notamment via des outils de suivi des documents et des échéances. Pour organiser un historique de paie et d’avantages liés aux RH, certains utilisent un scanner portable pour numériser rapidement les documents RH afin de conserver une trace claire en cas de questions ultérieures. D’autres recourent à un logiciel de gestion budgétaire personnelle pour simuler l’impact financier d’une perte d’actions et d’un calendrier de versements.

  • Le marché du logement à San Francisco est devenu incontrôlable

    Le marché du logement à San Francisco est devenu incontrôlable


    Le marché immobilier de San Francisco traverse une période difficile à décrire autrement que par un emballement. Des ventes à des niveaux record se multiplient, notamment dans le segment haut de gamme, et l’on observe aussi une surchauffe plus large, avec des offres au-dessus du prix affiché et des délais de vente qui se raccourcissent nettement.

    Des ventes record, y compris au-dessus des prix affichés

    Dans certains quartiers prisés, les transactions atteignent des sommets. Un bien de six chambres, d’environ 5 700 mètres carrés de superficie, situé à Cow Hollow, a été proposé début juin à 7,95 millions de dollars. Deux semaines après, il s’est vendu 15 millions de dollars, soit presque un doublement du prix demandé.

    Un autre exemple illustre la vigueur du marché à l’extrémité supérieure : une maison d’environ 4 100 mètres carrés à Presidio Heights, mise en vente à 4,4 millions de dollars fin avril, a trouvé preneur une semaine plus tard à 8,2 millions. Les écarts sont suffisamment importants pour susciter des commentaires, y compris de la part d’observateurs qui jugent le rapport qualité-prix décevant.

    La frénésie dépasse le très haut de gamme

    L’enthousiasme des acheteurs ne se limite pas aux propriétés les plus rares. À Bernal Heights, une maison d’environ 2 300 mètres carrés s’est vendue environ 4 millions de dollars, soit un million de plus que le prix initialement affiché.

    Plus généralement, de nombreux biens voient des offres se former au-dessus du prix demandé. Selon les tendances observées, il devient courant de dépasser le tarif affiché de 500 000 à 1 million de dollars, ce qui suggère une pression concurrentielle sur plusieurs segments du marché.

    Des indicateurs qui confirment un cycle en accélération

    Les chiffres disponibles vont dans le même sens. Des données récentes mettent en évidence une hausse marquée des ventes de biens de luxe à San Francisco : en variation annuelle, ces ventes progressent nettement, et les biens passent plus vite du statut d’annonce à celui de contrat. Par rapport à l’année précédente, les délais se raccourcissent, et une large part des propriétés haut de gamme est contractée en moins de deux semaines.

    À l’inverse, le marché non-luxe reste plus modéré : les ventes y progressent moins vite et les prix évoluent de façon plus stable. Cette divergence renforce l’idée d’un marché qui fonctionne à deux vitesses, avec des moteurs différents selon la catégorie de biens.

    Le rôle des liquidités liées à la tech

    La dynamique observée s’explique en partie par la puissance économique du secteur technologique local. San Francisco accueille des entreprises privées parmi les plus valorisées au monde. Leurs employés disposent, de plus en plus fréquemment, d’un accès à des mécanismes de liquidité via des transactions sur le marché secondaire, ce qui libère du capital pour l’achat ou la montée en gamme immobilière.

    Dans un contexte où certaines firmes très en vue ont aussi facilité ce type de mouvements pour leurs salariés, l’argent disponible peut se traduire concrètement par une demande soutenue sur le logement, y compris pour des biens déjà très chers. Cette liquidité contribue à expliquer pourquoi certains prix semblent désormais peu contraignants pour une partie des acheteurs.

    Si d’autres entreprises technologiques majeures introduisent leur capital en bourse, l’effet potentiel pourrait encore amplifier la disponibilité financière de certains profils. Pour l’instant, il s’agit davantage d’une hypothèse que d’un scénario déjà acté, mais elle nourrit les anticipations autour du marché.

    Quelles conséquences pour la perception du “prix” ?

    Une question demeure : jusqu’où ira cette dynamique alors que San Francisco est depuis longtemps associée à des niveaux d’accessibilité particulièrement faibles ? Voir des ventes très élevées devenir banales dans certains quartiers peut modifier les repères de prix, au moins temporairement, et rendre plus complexe l’évaluation pour les acquéreurs qui ne disposent pas des mêmes marges de manœuvre financières.

    Dans les faits, le marché semble réagir comme s’il entrait dans une nouvelle phase de cotation, surtout sur le haut de gamme. Cela ne signifie pas que chaque segment suivra la même trajectoire, mais la vitesse et l’ampleur des écarts observés indiquent clairement un changement d’environnement pour les transactions les plus disputées.

    Produits utiles pour suivre et sécuriser une recherche immobilière

    Pour ceux qui cherchent à comparer des biens, constituer un dossier cohérent et conserver une trace des caractéristiques essentielles, des outils de gestion de documents peuvent aider. Par exemple, un organiseur de documents numérique peut faciliter le tri des plans, diagnostics et échanges.

    Dans une logique de suivi des visites et des décisions, un télémètre laser peut également s’avérer pratique pour vérifier rapidement certaines dimensions lors d’une visite, en complément des informations fournies par le vendeur ou l’agent.