Catégorie : Technologie

  • Ces nouveaux Roombas sont plus compacts et moins chers

    Ces nouveaux Roombas sont plus compacts et moins chers


    iRobot lance une nouvelle génération de robots aspirateurs. Annoncée un an après ses premiers modèles intégrant une navigation à lidar, la gamme vise surtout deux objectifs : des appareils globalement plus compacts, et des prix revus à la baisse sur plusieurs références. L’entreprise met aussi l’accent sur la puissance d’aspiration et l’arrivée progressive de fonctions liées au lavage.

    Des Roombas plus compacts et plus abordables

    La marque, désormais rattachée à Shenzhen Picea Robotics, indique que de nombreux modèles de cette nouvelle ligne gagnent jusqu’à 25 % de taille. L’idée est de faciliter le passage sous des meubles bas : l’entreprise cite des ouvertures réduites, pouvant descendre jusqu’à environ 9 cm.

    Sur le plan financier, la baisse annoncée peut atteindre environ 200 £ (soit près de 270 $) par rapport aux générations précédentes. Les tarifs communiqués pour le Royaume-Uni démarrent à 229 £ pour la version d’entrée de gamme et montent jusqu’à 799 £ pour le modèle le plus complet.

    Puissance d’aspiration et navigation améliorées

    D’après iRobot, l’ensemble de la gamme bénéficie d’une aspiration plus forte et d’une navigation améliorée. Sur plusieurs modèles, la combinaison retenue associe la navigation lidar et une détection d’obstacles pilotée par caméra et par intelligence artificielle, avec pour objectif de limiter les blocages (câbles, chaussures, objets qui traînent).

    Il existe toutefois des différences selon le segment : les références du haut de gamme conservent l’approche la plus poussée, tandis que certaines versions en milieu de gamme utilisent une détection assistée sans forcément intégrer tous les mécanismes les plus avancés.

    Le “hot spot mopping” et une nouvelle étape avant le lavage

    Le changement le plus marquant concerne le lavage des sols. iRobot introduit la fonction baptisée “hot spot mopping”, associée à un traitement préalable destiné à mieux décoller les salissures. Sur certains modèles, la marque décrit un prétraitement par pulvérisation d’eau chaude sous pression avant le frottage.

    Concrètement, cette approche vise les traces tenaces : la pulvérisation chaude servirait à ramollir les dépôts avant que le robot ne s’occupe du nettoyage proprement dit.

    Modèles annoncés : du vacuum seul au “combo” lavage-aspiration

    La nouvelle gamme comptera huit références, commercialisées progressivement à partir du milieu de 2026 dans différentes régions (Amérique du Nord, Europe, Moyen-Orient et Afrique). Plusieurs appareils adoptent des docks capables de gérer l’entretien, avec des variations d’équipement selon les modèles.

    • Roomba Max 775 Combo : modèle haut de gamme, annoncé à 799 £, avec une aspiration portée à 30 000 Pa et un système de lavage intégrant l’AutoWash. iRobot met aussi en avant ses rouleaux et une fonction de prétraitement avant nettoyage.

    • Roomba Max 715 : version “aspirateur seul”, à 549 £, dotée d’un auto-videur et d’une navigation lidar et caméra.

    • Plus 615 / 675 : milieu de gamme “combo” avec lavage à rouleau, avec aspiration annoncée jusqu’à 20 000–30 000 Pa selon la configuration.

    • Plus 575 / 515 : autres “combo” intégrant l’idée du lavage, avec des différences sur la détection d’obstacles selon le modèle.

    • Roomba 415 Combo : version plus accessible orientée lavage + aspiration.

    • Roomba 115 Combo : entrée de gamme à 229 £, avec une aspiration annoncée à 15 000 Pa et un système de lavage via pad microfibre, plus ou moins évolutif selon la présence d’un auto-videur.

    Notre avis global : une stratégie de gamme plus lisible, mais à confirmer

    Sur le papier, cette nouvelle génération cherche un équilibre entre performance et accessibilité. La promesse de compacité et la hausse de puissance d’aspiration répondent à des attentes concrètes chez les utilisateurs (meilleure circulation sous les meubles, meilleure capacité à capter les saletés). Sur le lavage, l’introduction d’un prétraitement par pulvérisation chaude pourrait représenter un progrès tangible pour les taches difficiles.

    Reste un point de vigilance : comme souvent dans cette catégorie, la gamme multiplie les variantes avec des différences techniques parfois subtiles. Sans fiches complètes pour chaque référence (autonomie, type exact de navigation, durée des cycles de lavage, entretien des consommables), il est difficile de déterminer à l’avance quel modèle est le plus pertinent pour chaque foyer.

    Deux repères produits pour comparer (Amazon)

    En attendant ces nouveaux modèles, certains utilisateurs peuvent comparer avec des robots “combo” qui intègrent déjà l’auto-vidage et un mode lavage automatisé, comme un robot aspirateur laveur Roborock avec auto-videur, ou se tourner vers des alternatives iRobot/équivalents proposant une gestion complète du cycle, notamment un Ecovacs avec station d’entretien.

  • Les Machines Pensantes veulent créer une IA capable d’écouter vraiment tout en parlant

    Les Machines Pensantes veulent créer une IA capable d’écouter vraiment tout en parlant


    Thinking Machines, une jeune entreprise d’intelligence artificielle récemment créée par l’ex-responsable scientifique d’OpenAI Mira Murati, affirme vouloir changer la façon dont on dialogue avec les IA. Son annonce porte sur des « interaction models », une approche conçue pour permettre à l’outil de traiter votre demande tout en préparant sa réponse, de manière plus fluide et réactive.

    Un modèle d’interaction pensé pour se rapprocher de la conversation

    Jusqu’ici, la plupart des systèmes fonctionnent selon un schéma classique : l’utilisateur parle, le modèle « écoute », puis génère une réponse. L’approche de Thinking Machines vise à rompre avec cette alternance. L’idée est de faire fonctionner l’IA comme pendant un échange téléphonique : elle analyse l’entrée en continu tout en produisant la sortie, ce qui peut réduire la sensation de latence.

    Le concept technique associé est celui de « full duplex », autrement dit une capacité à fonctionner sur des flux qui se répondent simultanément plutôt que de manière strictement séquencée.

    Une promesse de rapidité, mais un aperçu de recherche

    La société indique que son modèle, TML-Interaction-Small, serait capable de répondre en environ 0,40 seconde. Si cette valeur est confirmée dans des conditions réelles, elle se rapprocherait davantage du rythme naturel d’une conversation humaine, par rapport à des modèles couramment déployés aujourd’hui.

    Pour autant, l’entreprise précise qu’il ne s’agit pas d’un produit grand public. La présentation s’apparente à un « research preview », d’abord réservé à un nombre limité d’utilisateurs, avec une diffusion plus large annoncée plus tard dans l’année.

    Ce que cela change… et ce qu’il reste à vérifier

    L’intérêt de la proposition réside surtout dans son orientation : faire de l’interactivité une propriété intrinsèque du modèle, plutôt qu’un simple ajout logiciel. Les performances annoncées, notamment au travers d’évaluations internes, semblent encourageantes.

    Le point décisif demeure toutefois l’expérience utilisateur. Les métriques ne garantissent pas toujours la qualité perçue : en situation réelle, des facteurs comme la robustesse du traitement de la parole, la gestion des chevauchements et la cohérence des réponses peuvent influencer fortement le ressenti. Pour juger sur pièces, il faudra attendre une mise à disposition suffisamment large.

    En pratique : préparer l’environnement pour un dialogue plus naturel

    Si l’objectif est de se rapprocher d’une interaction « conversationnelle », l’environnement matériel peut aussi compter. Pour tester des échanges vocaux et réduire les frictions, certains utilisateurs privilégient des équipements pensés pour capter la voix avec plus de précision, par exemple un casque micro dédié comme un micro-casque USB pour visioconférence, ou un dispositif doté d’un contrôle audio fiable comme un casque Bluetooth avec réduction de bruit.

  • Arrivées aux États-Unis d’un navire transportant des cas de hantavirus : trois personnes placées en confinement biologique

    Arrivées aux États-Unis d’un navire transportant des cas de hantavirus : trois personnes placées en confinement biologique



    À Omaha, des responsables fédéraux et de l’État du Nebraska ont précisé lundi matin les informations communiquées précédemment concernant le rapatriement de passagers liés à une exposition présumée au virus de l’hantavirus. Selon ces mises au point, le nombre de personnes rapatriées s’élève à 18, contre 17 annoncé initialement. Le groupe comprend 17 citoyens américains et une personne également citoyenne britannique et américaine. Les âges vont de la fin de la vingtaine à la fin de la soixantaine, avec un ou deux participants dans la tranche des débuts de quatre-vingt ans.

    Deux personnes placées en bioconfinement à l’arrivée

    Durant le vol vers Omaha, deux passagers ont été transportés dans des unités de bioconfinement « par précaution ». Il s’agit notamment de la personne ayant présenté un test qualifié de « légèrement positif » et d’une autre personne signalant des symptômes. Lors de la conférence, les autorités ont indiqué que la définition des symptômes était volontairement large, pouvant inclure des signes même modestes, comme un simple nez congestionné.

    Trois personnes en bioconfinement aux États-Unis

    Parmi les 18 rapatriés, 15 personnes — y compris la personne à double nationalité — sont actuellement considérées comme asymptomatiques et placées en quarantaine.

    La personne associée au résultat « légèrement positif » est hébergée dans une unité de bioconfinement au Nebraska. Les responsables n’ont pas donné de détails précis sur ce que recouvre exactement cette qualification, mais une explication a été évoquée par le biais de la logique des tests. Pour confirmer la présence d’ARN viral, les laboratoires utilisent un test PCR en temps réel qui effectue un nombre répété de cycles afin d’amplifier des fragments génétiques ciblés. En pratique, un test est généralement considéré négatif lorsqu’aucun signal clair n’apparaît après environ 40 cycles. Toutefois, l’interprétation peut rester délicate pour des signaux faibles observés après un nombre élevé de cycles, qui peuvent correspondre soit à un début ou une fin d’infection, soit à des contaminations.

    Les deux autres passagers placés en bioconfinement sont un couple voyageant ensemble, dont l’une des personnes avait été précédemment signalée comme symptomatique. Ils ont été transférés à l’unité de bioconfinement de l’université Emory, à Atlanta. D’après les autorités, ce déplacement vise à préserver la capacité d’isolement limitée au Nebraska, afin de disposer d’une place supplémentaire si l’un des quinze autres rapatriés développait une infection.

    Contexte sanitaire et traitement des cas

    Cette séquence illustre la manière dont les autorités cherchent à concilier prudence et gestion des capacités hospitalières, en particulier lorsque les signes cliniques et les résultats de tests restent, à ce stade, à interprétation nuancée. Les décisions de placement en bioconfinement reposent sur le niveau de risque perçu, les symptômes déclarés et les éléments biologiques disponibles, tout en conservant une marge de manœuvre pour l’évolution des personnes suivies.

    • Un équipement de protection individuelle adapté aux protocoles de sécurité peut aussi être utile pour comprendre les standards de prévention, même si les décisions de prise en charge restent exclusivement médicales et institutionnelles.
    • Pour le suivi des conditions ambiantes dans un cadre professionnel, certains utilisent des capteurs de qualité de l’air portables, qui ne remplacent pas les procédures médicales, mais permettent de mieux documenter l’environnement de travail.
  • Un centre de données a consommé 30 millions de gallons d’eau pendant des mois sans être repéré

    Un centre de données a consommé 30 millions de gallons d’eau pendant des mois sans être repéré



    Des organisations se mobilisent pour que les élus ne réduisent pas la question des centres de données aux seules factures d’électricité. Dans une lettre adressée au Congrès, plus de 120 structures demandent d’intégrer le sujet de l’eau, jugé tout aussi préoccupant, et d’exiger des évaluations environnementales complètes avant toute construction accélérée.

    Au-delà de l’électricité : l’eau au cœur des inquiétudes

    Les signataires estiment que la consommation d’eau liée aux centres de données peut mettre sous pression des territoires déjà fragiles. Ils évoquent des sites susceptibles de puiser jusqu’à plusieurs millions de gallons par jour, avec des impacts potentiels sur les ressources disponibles pour la population, l’agriculture et les écosystèmes.

    Le dossier met aussi en cause certains systèmes dites « en circuit fermé », souvent présentés comme plus efficaces. Selon les organisations, ces dispositifs peuvent mobiliser des produits chimiques potentiellement toxiques. En cas de mauvaise gestion, ils pourraient, à terme, contaminer des cours d’eau et nuire à la qualité de l’environnement.

    Une demande de procédures plus strictes

    Pour limiter les risques, les associations demandent l’adoption de règles imposant des études environnementales approfondies avant le lancement des projets. Elles réclament aussi que le Congrès s’engage à ne pas soutenir de textes visant à accélérer l’autorisation et le développement de « data centers hyperscale », liés notamment à l’intelligence artificielle, ou d’autres installations de grande taille, durant la période législative en cours.

    Leur position s’appuie sur l’idée que ces projets se multiplient plus vite que les garanties publiques ne peuvent pleinement encadrer leurs effets.

    Des décisions locales contestées, parfois freinées

    Certains épisodes montrent que les réactions locales peuvent infléchir des projets, même si la bataille n’est pas forcément terminée. En Utah, un centre de données hyperscale prévu dans le comté de Box Elder a retiré une demande visant à transférer 1 900 acre-feet d’eau d’un ranch vers l’installation. Environ 4 000 habitants ont déposé des avis d’opposition, selon des informations locales relayées par la presse régionale.

    Dans l’enceinte du débat public, les habitants considèrent que les préoccupations relatives à l’accès à l’eau, mais aussi aux coûts énergétiques, à la qualité de l’air et au cadre de vie, méritent d’être prises en compte autrement qu’à la marge.

    La question de la confiance publique

    Au-delà du contentieux sur l’eau, certains éditorialistes alertent sur l’érosion de la confiance lorsque les procédures paraissent opaques ou trop rapides. L’argument central est que, même si un projet est finalement moins problématique que craint, la perception d’un processus politique expéditif et peu transparent peut laisser des tensions durables.

    Ce que les acteurs devraient surveiller

    • La transparence des procédures d’autorisation et la qualité des évaluations environnementales.

    • Les données chiffrées sur les prélèvements en eau, la durée des impacts et les scénarios de sécheresse.

    • La gestion des rejets et, lorsque des systèmes en circuit fermé sont utilisés, la nature des produits chimiques et leurs filières d’élimination.

    Pour les collectivités et gestionnaires d’infrastructures, la surveillance des consommations et la mesure de la qualité de l’eau restent des sujets sensibles. Du côté des équipements de mesure, certains utilisateurs s’intéressent à des solutions de suivi et d’analyse de la qualité de l’eau, comme un compteur d’eau ultrasonique pour relevés précis ou à des kits de tests pour des contrôles réguliers, par exemple un kit de test de qualité de l’eau.

  • Sony améliore sa montre connectée : elle reste plus fraîche et s’adapte mieux à votre cou

    Sony améliore sa montre connectée : elle reste plus fraîche et s’adapte mieux à votre cou


    Sony renouvelle sa climatisation personnelle portée sur le haut du corps avec une nouvelle itération de son système wearable. Le Reon Pocket Pro Plus vise un objectif clair : améliorer l’efficacité du refroidissement tout en rendant l’appareil plus simple à porter, notamment sous des vêtements couvrants au col. L’annonce confirme une évolution incrémentale, mais orientée sur le confort et la discrétion au quotidien.

    Un refroidissement par plaque, pas un simple ventilateur

    Conçu pour être porté près de la nuque et du haut du dos, le Reon Pocket repose sur un principe de refroidissement par contact : une plaque métallique maintenue en place par des bras flexibles vient réduire la température au niveau de la peau. L’idée est de traiter la zone du cou de manière ciblée, plutôt que de souffler de l’air froid à grande échelle.

    Par rapport à la version Pro de l’an dernier, Sony indique une baisse supplémentaire de la température de surface de la plaque de deux degrés Celsius. L’entreprise met aussi en avant un traitement logiciel : un algorithme de refroidissement “évolué” censé améliorer de 20 % les performances par rapport au modèle précédent.

    Confort au port : ventilation mieux orientée et maintien optimisé

    L’un des points mis en avant par Sony concerne l’ergonomie. Le Reon Pocket Pro Plus reçoit un nouveau design au niveau de la sortie d’air : l’utilisateur peut en modifier la longueur et l’angle pour mieux évacuer l’air chaud, y compris lorsque l’on porte une chemise ou un haut à col montant. L’objectif est de limiter les sensations gênantes et de rendre l’usage plus compatible avec des tenues variées.

    Le maintien de l’appareil est confié à deux bras flexibles qui s’enroulent autour de la nuque et viennent stabiliser la plaque contre le haut du dos. C’est précisément cet équilibre entre contact thermique et stabilité qui contribue à la sensation de “climatisation” ciblée.

    Un capteur plus discret pour affiner les mesures

    Sony ajoute également un nouveau capteur, le Reon Pocket Tag 2. D’après la marque, il gagne en compacité (18 % plus petit) et bénéficie d’un design repensé pour être suspendu à une sangle ou à un mousqueton, à distance du corps. Cette configuration doit permettre des mesures plus précises de la température et de l’humidité, afin d’adapter le refroidissement.

    Prix et disponibilité

    Le Reon Pocket Pro Plus est annoncé pour le lancement en Europe et dans d’autres marchés. Le prix communiqué s’établit à 229 € ou 199 £, soit environ 270 $ selon les conversions. Comme pour les précédentes versions, Sony n’a pas donné d’indication concernant une commercialisation aux États-Unis.

    À qui s’adresse ce wearable climatisé ?

    Ce type de dispositif convient surtout aux personnes qui cherchent un rafraîchissement localisé, discret et compatible avec un usage “sous les vêtements”, par exemple au bureau, en déplacement ou lors de périodes de chaleur où l’on veut éviter les solutions plus encombrantes. En revanche, comme il s’agit d’un refroidissement ciblé au niveau du cou et du haut du dos, il ne remplace pas une climatisation d’ambiance.

    • Pour les journées chaudes au travail : utile si vous supportez mal la chaleur tout en restant habillé.
    • Pour les trajets : pratique grâce à un format porté, sans nécessiter de source externe volumineuse.
    • Pour un refroidissement “global” : un ventilateur ou une solution plus puissante reste généralement plus adaptée.

    Si vous explorez aussi des alternatives plus simples à utiliser en complément, certains utilisateurs considèrent par exemple un petit ventilateur personnel comme ce ventilateur rechargeable pour le cou, utile dans les environnements où porter un système de refroidissement dédié n’est pas envisageable.

    Dans une logique “refroidissement sans contact direct”, vous pouvez également regarder un modèle de ventilateur portable à basse nuisance sonore, tel que un ventilateur de circulation compact et silencieux, en complément d’un rafraîchissement ciblé.

  • Audi dévoile bientôt son nouveau modèle phare Q9 : découvrez son intérieur

    Audi dévoile bientôt son nouveau modèle phare Q9 : découvrez son intérieur


    Le futur Q9 d’Audi, présenté plus tard cet été, vise clairement le haut du segment avec une approche typiquement premium… mais surtout adaptée aux attentes d’un marché où les SUV dominent. Après l’A8, qui incarnait jusqu’ici le modèle-phare de la marque, l’arrivée de ce nouveau grand SUV marque un changement de cap assumé, notamment en Amérique du Nord.

    Un intérieur pensé comme un cocon

    Les premières images disponibles montrent un habitacle de série, au moins sous l’une des finitions possibles. L’ambiance s’appuie sur des choix de couleurs et de matières qui cherchent à instaurer une atmosphère plus chaleureuse que la simple sophistication technologique : des teintes beiges et brunes sont annoncées, avec aussi une alternative en bois à grain ouvert, dans des tons olive, plutôt que certains habillages sobres et sombres visibles sur les premières prises de vue.

    Ce travail sur les textures contribue à donner de la profondeur à l’habitacle. Audi privilégie par ailleurs des surfaces mates lorsqu’elle peut l’être, en réduisant l’omniprésence de l’aspect brillant.

    Un poste de conduite très digital, mais lisible

    La vue face au conducteur s’inspire d’une logique déjà esquissée par des concepts récents de la marque : le tableau de bord semble envelopper l’espace du conducteur plutôt que simplement “accrocher” des écrans à une planche de bord classique. Concrètement, l’instrumentation principale et l’écran multimédia adoptent une forme courbe, dessinée pour accompagner l’orientation du conducteur.

    Ces écrans ne seraient pas démesurément hauts, ce qui préserve la visibilité vers l’avant. Dans l’axe du capot, un élément d’éclairage discret (intégré en base de pare-brise) participe aussi à la structuration visuelle du poste de conduite, notamment lors de l’utilisation des clignotants et des feux de détresse.

    Le “mood” Audi : calme, contrôle et sensation d’espace

    Au-delà du design, la marque cherche à transmettre une impression de maîtrise et de tranquillité : l’habitacle est conçu pour paraître ordonné, silencieux visuellement, et donner au conducteur la sensation que tout est “à sa place”. C’est un positionnement cohérent avec l’ambition de modèle-phares haut de gamme : minimiser les distractions et mettre en scène une expérience de confort.

    Connectivité et confort à bord

    Au niveau pratique, l’équipement prévoit une connectique moderne et orientée usage familial ou longue distance. On relève notamment :

    • deux chargeurs sans fil
    • des ports USB-C jusqu’à 100 W
    • des ports USB-C supplémentaires pour la deuxième et la troisième rangée

    Selon les finitions, l’habitacle met aussi en avant la qualité perçue des surfaces : les panneaux de porte sont présentés comme particulièrement soignés au toucher.

    Pour les propriétaires de SUV haut de gamme, un accessoire utile au quotidien consiste en un chargeur sans fil fiable, compatible avec de nombreux modèles : vous pouvez jeter un œil à des solutions comme ce chargeur sans fil pour voiture avec USB-C, pratique pour sécuriser la recharge pendant les trajets.

    En complément, un organisateur de câbles et d’accessoires peut aider à garder l’habitacle propre, surtout si l’on utilise plusieurs équipements à bord : un organiseur multi-poches pour l’habitacle peut s’avérer pertinent pour préserver l’ordre dans un grand SUV.

    Un Q9 qui réaffirme la stratégie des SUV premium

    En choisissant un SUV pleine taille comme nouveau modèle-phare, Audi confirme que ses priorités actuelles se situent davantage là où les volumes se trouvent. L’intérieur du Q9, avec son langage de design enveloppant, ses finitions orientées “mat” et son arsenal de connectivité, donne une image cohérente : celle d’un grand SUV pensé pour le confort, la lisibilité et l’expérience à bord, sans surpromesse sur la hauteur des écrans ni sur la simplicité d’usage au quotidien.

  • Linux touché par une deuxième grave vulnérabilité en quelques semaines

    Linux touché par une deuxième grave vulnérabilité en quelques semaines



    Linux fait face à une nouvelle vague d’alertes de sécurité avec une seconde vulnérabilité d’escalade de privilèges signalée en quelques semaines. Les deux failles concernent le noyau et exploitent des erreurs dans la façon dont celui-ci gère des caches de pages en mémoire. Dans la pratique, des utilisateurs non autorisés pourraient altérer le contenu de ces caches, ce qui ouvre la voie à des prises de contrôle plus élevées selon les configurations.

    Des failles liées aux caches de pages du noyau

    Les deux vulnérabilités reposent sur un même principe : le noyau peut être amené à traiter incorrectement des pages mises en cache, permettant à un attaquant de modifier ces données en mémoire. Les cibles principales se trouvent dans des composants du noyau impliqués dans la mise en cache, notamment côté réseau et traitement de fragments en mémoire.

    Concrètement :

    • CVE-2026-43284 vise la chaîne de réception IPsec liée aux processus esp4 et esp6.

    • CVE-2026-43500 cible rxrpc, un mécanisme noyau utilisé pour la communication RPC dans le réseau.

    Une continuité avec les précédentes attaques “Dirty”

    La première faille récemment documentée s’inscrivait déjà dans une famille d’issues de sécurité associées à des défauts de manipulation des caches en mémoire, avec une origine rappelant celle d’anciennes techniques comme Dirty Pipe (qui permettait de remplacer le contenu de caches de pages). Cette nouvelle vague, souvent regroupée sous le même type de modèle d’exploitation, suggère une exploitation plus structurée des mécanismes internes du noyau.

    Les chercheurs décrivent en particulier l’usage de splice() pour “placer” une référence à une page de cache en mémoire, puis laisser le code noyau effectuer des opérations (notamment cryptographiques) qui aboutissent à une modification en place des données. Même si l’attaquant ne disposerait au départ que d’un accès en lecture, le résultat serait un cache corrompu, observable lors des lectures ultérieures.

    Risque accru lorsqu’elles sont combinées

    Un point important est que chaque exploitation, prise isolément, peut être moins fiable selon le système et ses protections. Par exemple, certaines distributions peuvent limiter l’utilisation d’espaces de noms non privilégiés via des contrôles comme AppArmor, ce qui peut réduire l’impact de la branche IPsec.

    De même, si le module rxrpc n’est pas chargé par défaut dans une distribution donnée, le volet lié à CVE-2026-43500 peut être neutralisé.

    En revanche, lorsque les deux failles sont exploitables dans un même environnement (par exemple via la combinaison de conditions réseau et de modules actifs), les chercheurs indiquent que l’attaque pourrait conduire à l’obtention de privilèges élevés sur des configurations largement utilisées.

    Mesures de mitigation prioritaires

    La recommandation centrale reste simple : appliquer immédiatement les correctifs du noyau dès qu’ils sont disponibles. Dans la plupart des cas, cela implique un redémarrage, nécessaire pour charger la nouvelle version du noyau et invalider l’ancien état vulnérable.

    Pour les environnements qui ne peuvent pas patcher sans délai, l’objectif est de réduire la surface exposée en suivant les mesures de contournement proposées par les équipes de sécurité : limiter l’activation des composants concernés, vérifier les modules noyau présents et s’assurer que les mécanismes de durcissement (selon les distributions) sont bien en place.

    Dans une logique de gestion de parc, il peut aussi être utile de renforcer le cloisonnement des systèmes et de limiter les accès externes aux services réseau exposés afin de diminuer la probabilité d’exploitation.

    Pour ceux qui souhaitent améliorer la résilience en attendant la mise à jour, un mini-PC orienté serveur avec KVM/virtualisation peut aider à isoler des environnements de test et de durcissement. À l’échelle bureautique, un pare-feu matériel pour segmentation réseau peut également faciliter la limitation des flux vers les machines sensibles.

  • Voici les dernières activités de l’entreprise d’IA de Mira Murati

    Voici les dernières activités de l’entreprise d’IA de Mira Murati


    Les systèmes d’intelligence artificielle modernes sont souvent pensés comme des interlocuteurs “en différé”. Tant que l’utilisateur n’a pas terminé sa saisie ou sa prise de parole, le modèle ne capte pas l’évolution de l’intention. Puis, une fois la génération lancée, sa “perception” se fige : il ne reçoit plus de nouvelles informations jusqu’à la fin du calcul. Cette mécanique réduit la fluidité de l’échange et limite, de fait, la place laissée au raisonnement humain au fil du dialogue.

    L’enjeu pour des équipes spécialisées en IA est donc clair : élargir le canal de collaboration entre humains et machines. En pratique, l’objectif consiste à rendre l’interaction plus continue, en temps réel, et à intégrer plusieurs modalités (texte, voix, éventuellement d’autres signaux) pour que le système s’adapte mieux à la dynamique de l’utilisateur.

    Une interaction plus “vivante” que le modèle en une seule boucle

    Le modèle de fonctionnement décrit ici correspond à une forme de goulot d’étranglement : l’IA attend que l’utilisateur finisse, puis elle travaille sans recevoir de nouveaux signaux. Cette séquence en deux temps fonctionne, mais elle complique les tâches où l’on attend des ajustements continus, par exemple lorsque l’utilisateur clarifie rapidement un point, corrige une formulation ou réagit à une réponse en direct.

    Comparativement à une discussion face à face, l’échange devient moins naturel. L’utilisateur doit “cadencer” sa pensée pour que le système puisse traiter l’information par blocs, ce qui peut ralentir l’interaction et réduire la qualité de la compréhension mutuelle.

    Le pari : une IA interactive et multi-modalité en temps réel

    La solution envisagée consiste à faire fonctionner l’IA de manière plus interactive, comme si elle pouvait suivre le fil de l’échange en continu. L’idée est de permettre une interaction en temps réel sur n’importe quelle modalité, afin que l’interface ne force pas l’utilisateur à se conformer à un format unique (par exemple, attendre la fin d’une saisie avant de pouvoir “penser avec” l’IA).

    Dans cette approche, l’interface cherche surtout à s’adapter à l’humain : quand la personne parle, l’IA doit pouvoir réagir sans pause imposée ; quand elle modifie son message, le système doit être en mesure d’en tenir compte rapidement. L’objectif n’est pas seulement d’améliorer les performances, mais aussi de rendre la collaboration plus compréhensible, plus fluide et moins contraignante.

    Ce que cela change concrètement pour l’usage

    Si ces principes deviennent une réalité dans les produits, plusieurs effets sont attendus :

    • Moins d’interruptions artificielles : l’IA n’attendrait pas systématiquement des “tranches” de parole ou de texte.
    • Meilleure prise en compte du contexte en cours : l’intention de l’utilisateur pourrait être ajustée pendant que le système génère.
    • Interactivité renforcée : la discussion pourrait ressembler davantage à un dialogue, et moins à un envoi de commandes.

    Dans un cadre pratique, cela peut concerner des usages où la rapidité de correction est déterminante, comme la rédaction itérative, la préparation d’un discours ou l’assistance à la décision lors d’une discussion. Pour tester des scénarios d’interaction vocale, certains utilisateurs s’appuient aussi sur des équipements adaptés, par exemple un microphone sans fil pour la prise de parole, qui facilite des échanges plus naturels avec des outils d’IA à commande vocale.

    Vers quels types d’outils ces idées pourraient mener ?

    L’orientation “temps réel et multi-modalité” suggère une évolution des assistants et des interfaces. Plutôt que d’être centrés uniquement sur le texte, ils pourraient intégrer des modalités plus directement liées à la conversation : voix, hésitations, reformulations, et transitions rapides entre différentes formes de communication.

    Cette dynamique va aussi dépendre de la façon dont les modèles gèrent la continuité et la stabilité de la conversation. Les gains ne seront pas uniquement une question de capacité à répondre, mais de capacité à maintenir un échange cohérent sans “pause cognitive” imposée. Sur le plan matériel, les interfaces pourraient également tirer parti d’équipements conçus pour une interaction rapide, comme un haut-parleur intelligent doté d’un bon système de microphone, qui sert souvent de point d’entrée aux usages conversationnels en environnement domestique.

    En somme, le chantier décrit ici vise à réduire l’asymétrie de timing entre l’humain et la machine. Tant que l’IA traite des séquences “finies” puis génère sans réception d’informations nouvelles, la collaboration reste limitée. À l’inverse, une interaction plus continue, multi-modale et en temps réel pourrait rendre l’usage de l’IA plus naturel, plus efficace et mieux aligné avec la façon dont les personnes dialoguent réellement.

  • La propagation du hantavirus et l’affrontement Musk c. Altman : semaine 2

    La propagation du hantavirus et l’affrontement Musk c. Altman : semaine 2


    Deux sujets dominent cette édition : un épisode sanitaire préoccupant mais jugé maîtrisable à court terme, et, parallèlement, un procès très médiatisé qui continue de faire émerger des tensions entre acteurs majeurs de l’IA. Entre maladies transmises par les rongeurs et rivalités juridiques autour de l’intelligence artificielle, le panorama technologique et sociétal de la semaine mêle urgences et controverses.

    Épidémie de hantavirus à bord d’un navire : ce qu’on sait et ce que les experts relativisent

    Huit passagers à bord d’une croisière battant pavillon néerlandais ont contracté un type de hantavirus transmis par les rats. Trois décès ont été signalés depuis le début de l’alerte. Les spécialistes soulignent toutefois que la situation ne s’apparente pas, dans sa nature, à l’épidémie de coronavirus de 2020 : les mécanismes de propagation ne semblent pas être identiques.

    Le virus concerné, associé notamment à l’« Andes virus », a la particularité d’être capable de se transmettre d’une personne à l’autre. Néanmoins, aucun traitement antiviral spécifique ni vaccin n’est actuellement reconnu comme applicable à grande échelle. La question centrale est donc celle du mode de contamination observé pendant la traversée : les premières analyses indiquent que la transmission interhumaine n’aurait pas lieu de façon automatique, mais nécessiterait un contexte de contact particulier que l’environnement du navire aurait favorisé.

    Dans ce type de scénario, la surveillance et la gestion des contacts restent essentielles. L’évaluation du risque se fonde en général sur la dynamique de nouveaux cas, la nature exacte des expositions et la capacité des autorités sanitaires à retracer les contacts pertinents.

    Procès Musk contre OpenAI : deuxième semaine et nouvelles révélations au tribunal

    La deuxième semaine du procès entre Elon Musk et OpenAI a intensifié l’examen des motivations derrière l’action en justice. Du côté de la défense, le président d’OpenAI, Greg Brockman, a témoigné du fait que Musk aurait poussé à la création d’une structure à but lucratif. Un autre élément est également venu alimenter les débats : Shivon Zilis, ancienne membre du conseil, a déclaré que Musk aurait cherché à attirer Sam Altman vers une entreprise concurrente dédiée à l’IA.

    Le tribunal a aussi entendu parler de documents privés et d’éléments liés à des projets alternatifs d’infrastructure technologique. Ces discussions visent, en creux, à déterminer qui a cherché quoi, à quel moment, et dans quel objectif stratégique — un point central dans ce type de contentieux.

    IA et surveillance : pourquoi des agents de modèles de langage inquiètent aux États-Unis

    Au-delà des salles d’audience, la semaine met aussi en lumière un enjeu de fond : l’usage potentiel de l’intelligence artificielle pour accélérer l’exploitation de données personnelles. Dans plusieurs pays, des « brokers » collectent déjà des informations issues de la navigation en ligne, de données financières ou de traces de localisation, puis les revendent à divers acteurs, y compris des administrations.

    Des chercheurs mettent toutefois en garde : si rassembler des données est devenu plus simple, les combiner à grande échelle pour identifier rapidement des individus à partir de données supposées anonymisées reste plus complexe. Or, des travaux récents suggèrent que des agents basés sur des modèles de langage pourraient faciliter cette étape en reliant des informations disparates plus vite et à moindre coût.

    L’inquiétude exprimée par des experts en confidentialité est donc moins l’existence des données elles-mêmes que la disparition, potentielle, d’une « friction » qui limitait jusqu’ici le passage du non-identifiable à l’identifiable.

    • Dans la pratique, des politiques de minimisation des données et des exigences renforcées sur l’accès et l’usage pourraient devenir plus décisives.
    • Les débats sur le contrôle des systèmes automatisés, la gouvernance et la conformité réglementaire devraient aussi s’intensifier.

    Pour les lecteurs qui cherchent à mieux protéger leurs appareils au quotidien, un routeur orienté confidentialité peut aider à renforcer certaines bases de sécurité réseau, même si cela ne remplace pas une gouvernance des données côté services.

    En parallèle, sur le terrain de la sécurité opérationnelle, un gestionnaire de mots de passe chiffré reste un outil simple pour réduire le risque lié aux identifiants réutilisés — un point souvent sous-estimé quand l’on parle de surveillance via recoupements.

    Autres signaux faibles : malaise dans les entreprises, robotique militaire et tensions géopolitiques

    Plusieurs tendances décrites dans l’écosystème technologique s’entrecroisent. D’un côté, l’adoption de l’IA dans les entreprises est parfois vécue comme une pression accrue, notamment par crainte de suppressions de postes. De l’autre, la robotique progresse dans des contextes militaires, avec l’idée de combler des déficits de ressources humaines. Ces dynamiques posent des questions similaires : comment déployer des systèmes automatisés de manière responsable, et avec quel impact sur les personnes.

    Enfin, les discussions géopolitiques autour de la dépendance technologique — et notamment du secteur des puces — continuent de façonner les arbitrages industriels. Dans plusieurs régions, la capacité de production de composants devient un facteur de souveraineté, et donc un levier stratégique.

    Encadrer “la sécurité” dans l’IA : entre régulation et doctrine

    Une citation mise en avant dans l’actualité rappelle un changement de ton : la sécurité en matière d’IA n’est plus nécessairement perçue comme un frein, mais comme un sujet central de gouvernance. L’enjeu est de traduire cette intention en exigences concrètes, sans sur-promettre ni ignorer la complexité des systèmes.

    Sur ce plan, la semaine illustre une convergence : qu’il s’agisse de procès, d’anticipation des risques sanitaires ou de surveillance algorithmique, les sociétés cherchent des mécanismes pour limiter les dérives. Reste à savoir lesquels seront retenus — et à quel rythme ils s’imposeront.

  • Yarbo promet de supprimer la porte dérobée intentionnelle de son robot tondeuse

    Yarbo promet de supprimer la porte dérobée intentionnelle de son robot tondeuse


    Le fabricant du robot tondeuse Yarbo annonce vouloir supprimer une “porte dérobée” d’accès à distance, initialement conçue pour permettre un dépannage. L’entreprise affirme désormais que cette capacité ne restera plus active par défaut et qu’elle passera en mode opt-in, ce qui doit permettre aux propriétaires de choisir d’activer ou non un accès distant persistant.

    Une faille jugée sensible, à l’origine d’une controverse

    Des chercheurs en sécurité avaient pointé la présence d’un accès à distance pouvant, en théorie, faciliter la reprogrammation de la tondeuse par des tiers malveillants. Yarbo avait déjà reconnu plusieurs problèmes et indiqué vouloir renforcer la sécurité logicielle de ses robots.

    Dans un premier temps, l’entreprise avait toutefois maintenu l’idée d’un accès distant, justifié comme un moyen de diagnostiquer des problèmes sans que l’utilisateur doive intervenir physiquement sur l’appareil, notamment en cas de difficultés de connexion ou de service.

    Le changement : un accès distant activable seulement si l’utilisateur le souhaite

    Selon l’entreprise, le point le plus préoccupant est désormais traité plus radicalement. Yarbo indique que l’accès distant persistant ne sera plus installé par défaut : il deviendra une fonctionnalité optionnelle, installée uniquement si l’utilisateur en fait le choix.

    Le dirigeant de Yarbo explique que la suppression du “tunnel” d’accès ne devrait pas être instantanée pour tous les appareils, tout en précisant que la mise à jour viserait à limiter le risque. L’entreprise évoque un script de configuration, qui ne resterait inactif qu’avant toute activation par l’utilisateur.

    Une mise en œuvre progressive et des contrôles supplémentaires

    Yarbo affirme par ailleurs renforcer d’autres protections. Des mises à jour de micrologiciel ont déjà commencé à être déployées sur un premier groupe de machines, avec une extension prévue à d’autres lots. L’objectif, d’après l’entreprise, est notamment d’introduire des identifiants uniques pour chaque appareil, sans que le fabricant fournisse ces éléments aux utilisateurs finaux.

    L’entreprise indique aussi être en discussion avec le chercheur ayant soulevé le problème, afin de permettre une validation indépendante des changements.

    Ce que les propriétaires pourront faire concrètement

    Yarbo recommande, en cas de difficulté, de commencer par transmettre les informations de diagnostic à son support technique. Ce n’est qu’en l’absence de solution via les canaux classiques que l’utilisateur pourrait envisager d’activer la fonctionnalité d’accès distant optionnelle.

    • D’abord, fournir des journaux et éléments de diagnostic au support.

    • Activer ensuite, si nécessaire, l’accès distant optionnel.

    Des outils de sécurité pour mieux protéger un robot connecté

    En attendant d’évaluer les effets concrets des mises à jour, certains propriétaires peuvent renforcer la sécurité de leur réseau domestique. Pour limiter l’exposition des appareils connectés, un routeur qui gère des fonctions de sécurité avancées et un contrôle plus fin du trafic peut constituer un complément utile, comme par exemple le routeur Wi-Fi orienté sécurité et contrôle du réseau.

    Par ailleurs, un dispositif de coupure ou de surveillance d’alimentation pour appareils intelligents peut aider à isoler un équipement du réseau en cas de besoin, par exemple pour réduire l’impact d’un dysfonctionnement.

    En résumé, Yarbo tente de répondre à une critique majeure : remplacer un accès distant persistant par une fonctionnalité réellement contrôlée par l’utilisateur. Reste à voir, à mesure que les mises à jour se généralisent, si les mécanismes annoncés permettent une suppression effective “par défaut” et une vérification conforme aux attentes des spécialistes.