Catégorie : Technologie

  • Le câble USB‑C 2‑en‑1 Anker à prix réduit : une bonne affaire à 15 $

    Le câble USB‑C 2‑en‑1 Anker à prix réduit : une bonne affaire à 15 $


    Les câbles USB‑C « 2‑en‑1 » séduisent de plus en plus d’utilisateurs, surtout quand plusieurs appareils compatibles USB‑C doivent être rechargés en même temps. En une seule connexion, ils permettent d’alimenter deux équipements distincts sans multiplier les ports de l’adaptateur. Dans ce contexte, le câble Anker annoncé à prix réduit autour de 15 dollars se positionne comme une option pratique pour les foyers et les usages nomades.

    Un câble double pour gagner de la place

    Le principe est simple : un seul câble « bifurqué » relie la prise USB‑C à deux connecteurs côté appareils. L’intérêt apparaît dès lors que l’on jongle entre plusieurs produits alimentés via USB‑C, comme un ordinateur portable et un smartphone, ou une tablette et une liseuse. Le câble permet alors de limiter le nombre de ports utilisés sur votre chargeur.

    À noter toutefois que la fonctionnalité de transfert de données n’est pas identique à celle de la charge : seul le premier appareil connecté sur le câble peut transférer des données, tandis que le second est dédié à l’alimentation.

    Charge « jusqu’à 140 W » et répartition automatique

    Les modèles 2‑en‑1 compatibles avec une montée en puissance annoncée jusqu’à 140 W visent un usage où plusieurs appareils exigent des niveaux de charge élevés. Le câble intègre également une répartition automatique de la puissance : selon la capacité du chargeur mural et les caractéristiques des appareils branchés, l’énergie est distribuée afin de privilégier l’équipement qui demande le plus de watts.

    En pratique, la vitesse dépendra donc toujours de votre adaptateur secteur : plus celui-ci est performant, plus vous pourrez bénéficier d’une charge rapide cohérente pour les deux appareils.

    Quel adaptateur choisir pour en tirer le meilleur ?

    Un câble 2‑en‑1 n’agit pas seul : le couple avec un chargeur suffisamment puissant fait la différence. Sur le marché, on retrouve des adaptateurs multiports capables de délivrer des puissances élevées, ce qui facilite l’usage simultané d’appareils aux besoins différents.

    Si vous cherchez à accompagner ce type de câble, un chargeur 4 ports 140 W d’Anker peut constituer une base solide pour un usage quotidien, notamment via un modèle 140 W multiports compatible USB‑C.

    Alternative si vous privilégiez la longueur

    Tous les câbles 2‑en‑1 ne se valent pas sur la longueur, même si les fonctionnalités peuvent rester proches. Une version plus longue peut s’avérer utile sur un bureau, dans une voiture ou dans un espace où les prises murales ne sont pas situées au plus près des appareils.

    Dans cette logique, vous pouvez aussi comparer des câbles 2‑en‑1 avec une longueur supérieure via des options USB‑C 2‑en‑1 annoncées à 140 W et disponibles en différentes longueurs.

    En bref : pour qui le câble Anker à ~15 dollars est pertinent ?

    Le câble Anker 2‑en‑1 constitue une option intéressante si vous cherchez à optimiser l’espace de charge et à réduire le nombre d’adaptateurs ou de prises mobilisées. Son format double permet de recharger deux appareils USB‑C à partir d’un même point d’alimentation, avec une allocation de puissance qui s’adapte à votre chargeur et à la demande des équipements.

    La limite principale à garder en tête concerne le transfert de données : si votre priorité est la synchronisation ou le transfert, il faut considérer que seul le premier appareil branché pourra bénéficier de cette fonction.

  • Les ondes infrasonores peuvent-elles remplacer les sprinkleurs pour prévenir les incendies de cuisine ?

    Les ondes infrasonores peuvent-elles remplacer les sprinkleurs pour prévenir les incendies de cuisine ?


    Des systèmes de lutte contre l’incendie fondés sur l’infrason et l’énergie acoustique suscitent l’intérêt, notamment parce qu’ils promettent d’agir rapidement sur les flammes. Toutefois, pour l’instant, les éléments disponibles ne suffisent pas à établir que cette approche pourrait remplacer les dispositifs existants, en particulier les sprinklers, largement éprouvés et encadrés par des normes de sécurité.

    Des essais encore trop incomplets pour conclure

    Les spécialistes interrogés estiment qu’il manque des données issues d’essais à grande échelle reflétant des situations domestiques réalistes. Pour qu’une technologie soit comparée aux sprinklers, il faudrait notamment des tests couvrant plusieurs types de départ de feu : incendies de mobilier et de matelas, feux de cuisine, feux électriques, ainsi que des scénarios d’exposition aux braises depuis les combles ou l’extérieur.

    Les conditions d’essai devraient aussi inclure la complexité des lieux réels : portes ouvertes ou fermées, variations de hauteur sous plafond, présence de courants d’air latéraux, combustibles partiellement obstrués, et vérification de l’éventuel “retour” du feu après l’arrêt du système.

    Le point de vue des experts : acoustique et contrôle des flammes

    Un chercheur en dynamique des incendies de l’Université de Californie à Berkeley souligne qu’il n’existe pas encore assez d’informations pour affirmer une supériorité ou même une efficacité comparable à celle des sprinklers.

    Il s’appuie notamment sur une étude académique de 2018 qui conclut que le contrôle des flammes ne peut pas reposer uniquement sur l’acoustique, au-delà du stade initial de l’incendie.

    À l’inverse, les sprinklers bénéficient d’un historique d’essais et de certifications solides, construits sur de nombreuses années par la communauté de la sécurité incendie. L’argument central est simple : toute technologie innovante devrait prouver, avec la même rigueur, des performances au moins équivalentes et une fiabilité démontrée avant de pouvoir être envisagée comme solution de remplacement.

    Qu’attendent les pompiers lors de nouvelles évaluations

    Lors d’une démonstration menée par des équipes de secours, les retours portent surtout sur la nécessité d’aller plus loin. Les représentants des services incendie concernés expliquent ne pas recommander de produit précis, mais cherchent à comprendre dans quels cas l’innovation pourrait être utile.

    Dans cette logique, des tests supplémentaires seraient envisagés, notamment sur des équipements lourds comme un bulldozer, afin d’identifier les limites et les points de défaillance potentiels dans des conditions opérationnelles variées.

    Fiabilité, maintenance et détection des pannes : les questions qui reviennent

    Au-delà de l’efficacité immédiate, les pompiers et les gestionnaires de sécurité attendent des réponses concrètes sur la durée de vie du système : exigences de maintenance à long terme, nécessité de calibrage ou de tests de routine pour préserver la fiabilité, ainsi que la manière dont les défaillances (par exemple un capteur qui ne fonctionne pas correctement ou un générateur qui ne délivre pas l’énergie attendue) seraient détectées et communiquées à l’exploitant.

    Pour se faire une idée des enjeux “réalité terrain” et de la sécurité incendie au quotidien, beaucoup s’appuient encore sur des solutions éprouvées comme les détecteurs et dispositifs d’alerte. À titre d’exemples, certains foyers se tournent vers des détecteurs de fumée certifiés et vers des kits de protection incendie domestique conçus selon des normes établies.

    En l’état, l’idée d’utiliser l’infrason et l’acoustique pour freiner ou interrompre certains feux reste un sujet prometteur, mais non suffisamment étayé pour concurrencer directement les sprinklers. Les prochaines étapes devraient prioritairement porter sur des essais représentatifs, des comparaisons chiffrées, et une évaluation rigoureuse de la fiabilité, de la maintenance et de la gestion des défaillances.

  • L’« apocalypse RAM » a offert à Microsoft un répit précieux face à SteamOS

    L’« apocalypse RAM » a offert à Microsoft un répit précieux face à SteamOS


    Le projet de Valve visant à étendre Steam au-delà du Steam Deck via une « Steam Machine » se retrouve aujourd’hui pris dans un étau : la hausse des coûts et les tensions d’approvisionnement qui touchent l’ensemble du marché des composants PC. En pratique, Microsoft et les fabricants de PC ont peut-être trouvé, par ricochet, du temps supplémentaire pour consolider leurs positions face à SteamOS.

    Des tensions matérielles qui gagnent tout le secteur

    La difficulté ne tient pas seulement à l’écosystème logiciel ou à la stratégie commerciale. Elle vient aussi d’un contexte industriel lourd : une partie de la capacité de production est mobilisée pour répondre à la demande liée à l’essor de l’intelligence artificielle générative. Conséquence directe, la mémoire, le stockage et les GPU (et, de plus en plus, certains CPU) deviennent plus difficiles à obtenir, tandis que les prix repartent à la hausse.

    Ce phénomène se répercute particulièrement sur les produits électroniques destinés au grand public, où les marges sont souvent plus faibles. Les réductions de prix, qui étaient devenues monnaie courante ces dernières années sur certains segments, laissent davantage place à des augmentations, parfois répétées.

    Valve et le Steam Deck : des contraintes qui freinent l’entrée en masse

    Pour Valve, ces tensions ont un effet en chaîne. Le calendrier de la Steam Machine est ainsi reporté à un horizon incertain. Même lorsqu’un lancement reste « prévu », la réalité du marché peut imposer des délais supplémentaires, le temps de sécuriser les composants et de stabiliser l’offre.

    Sur le Steam Deck, le problème est également visible : le dispositif, pourtant déjà établi, se retrouve moins accessible. Des fabricants tiers de consoles portables, eux aussi, auraient réduit leurs capacités de lancement ou revu leurs prix, ce qui limite l’arrivée de nouveaux utilisateurs susceptibles de se tourner vers SteamOS.

    Un défi de compétitivité face aux consoles et au PC “classique”

    Le cœur de la difficulté est commercial : rivaliser avec les consoles et proposer un produit au prix attendu par le grand public devient plus complexe lorsque les coûts des composants s’envolent. Même si la Steam Machine finit par arriver sur le marché et même si la disponibilité suit, il reste la question du prix final.

    Dans un contexte où les utilisateurs comparent autant le rapport qualité/prix que la facilité d’accès, un produit qui s’approche trop de la zone tarifaire des alternatives existantes risque d’être perçu comme moins attrayant, notamment pour ceux qui hésitent encore à passer à un écosystème PC/Steam.

    Ce que cela change pour Microsoft : du temps, surtout

    Si l’on met ces éléments bout à bout, l’impact indirect pour Microsoft est clair : les retards et les tensions d’approvisionnement réduisent la capacité de Valve à accélérer immédiatement une concurrence frontale avec les solutions centrées sur PC et les usages “console”. Autrement dit, Microsoft et les acteurs déjà installés gagnent du temps, même si cela ne signifie pas que la menace disparaît.

    Pour les lecteurs qui souhaitent mieux comprendre l’interface PC/console, certains s’équipent aussi en stockage ou en mémoire afin d’améliorer leurs machines. À ce titre, un SSD NVMe 1 To peut être un choix pratique pour optimiser les temps de chargement sur un PC compatible, tandis qu’un kit DDR5 de 32 Go aide souvent à maintenir une expérience plus fluide selon les jeux et les logiciels utilisés.

  • 8 Adaptateurs de Voyage (2026) : Tests et Avis

    8 Adaptateurs de Voyage (2026) : Tests et Avis


    Partir à l’étranger avec une seule prise « qui ira bien » relève souvent du pari. En pratique, tout se joue sur deux points : le type de fiche (compatibilité avec la prise locale) et la capacité de vos appareils à accepter la tension du pays visité. En 2026, les meilleurs adaptateurs de voyage sont ceux qui couvrent plusieurs normes de fiches et ajoutent des ports USB utiles, sans exiger d’équipements supplémentaires lourds ou coûteux.

    Quels types de prises couvrent les adaptateurs de voyage ?

    À l’échelle mondiale, on retrouve plusieurs standards de fiches. Les adaptateurs « universels » visent généralement à couvrir un grand nombre d’entre eux en combinant plusieurs broches ou en proposant des modules interchangeables.

    • Type A et Type B : présents notamment aux États-Unis, au Canada, au Mexique et au Japon.
    • Type C : très courant en Europe, en Amérique du Sud et dans plusieurs pays d’Asie.
    • Type E et Type F : fréquemment rencontrés en Europe, notamment en Allemagne, en France et en Russie.
    • Type G : principalement au Royaume-Uni, en Irlande et dans quelques pays.
    • Type I : utilisé en Australie, en Nouvelle-Zélande, en Chine et en Argentine.

    En revanche, certains pays ne sont pas toujours couverts par les kits « universels », par exemple l’Inde (Type D), Israël (Type H) ou l’Afrique du Sud (Types M ou N). Avant le départ, il reste donc essentiel de vérifier la fiche correspondant à votre destination.

    Faut-il un convertisseur de tension ? Pas forcément

    On confond souvent adaptateur et convertisseur. Les modèles recommandés ici ne changent pas la tension : ils se limitent à la compatibilité des fiches. La tension peut donc varier selon le pays (par exemple 220 V/50 Hz versus 120 V/60 Hz).

    Le point clé est indiqué sur vos appareils ou chargeurs : cherchez une mention du type Input: 100–220V 50/60Hz. Si c’est le cas, votre équipement est généralement conçu pour fonctionner dans une large plage de tension.

    Dans le doute, évitez d’emporter un convertisseur : c’est souvent encombrant, coûteux et pas toujours adapté aux charges lourdes. Par ailleurs, sur place, certains équipements (sèche-cheveux, fers, bouilloires électriques) peuvent être disponibles, ce qui réduit l’intérêt d’un équipement supplémentaire.

    USB-A, USB-C et puissance : comment bien choisir

    Les adaptateurs modernes n’offrent pas seulement des broches : ils incluent souvent des ports USB pour simplifier le chargement. La performance dépend de la puissance (exprimée en watts) et des standards de charge (comme Power Delivery pour l’USB-C).

    En général, le chargeur peut fournir une puissance maximale, mais l’appareil consomme ce dont il a besoin. Si la puissance délivrée est inférieure à celle requise, la charge peut simplement être plus lente. Pour les ordinateurs portables, on vise souvent des chargeurs plus puissants et capables de gérer les protocoles adaptés.

    Adapter à plusieurs destinations : l’intérêt des modèles « tout-en-un »

    Pour un voyage unique, un adaptateur simple peut suffire. En revanche, pour les déplacements multi-pays ou pour les personnes qui voyagent souvent, un adaptateur « tout-en-un » a un avantage concret : il combine plusieurs fiches et, fréquemment, des ports USB. C’est aussi l’approche la plus pratique pour limiter le nombre d’accessoires dans le sac.

    Un autre critère pratique revient régulièrement : la facilité d’usage. Les mécanismes trop complexes (broches qui se replient facilement, réglages délicats) peuvent devenir pénibles, surtout en déplacement.

    Conseils d’usage avant le départ

    Un test rapide à la maison évite les mauvaises surprises : câbles, chargeurs, ports USB et compatibilité de la fiche doivent fonctionner dès le premier branchement. Entre l’adaptateur, le câble et l’électronique du chargeur, il y a assez de points de friction pour justifier un contrôle en amont.

    Produits compatibles à considérer (sélection indicative)

    Parmi les options souvent mentionnées pour leurs capacités polyvalentes, un modèle proposant plusieurs fiches et plusieurs ports USB peut être un choix pertinent. Par exemple, l’adaptateur universel Epicka Air 40W s’inscrit dans cette logique « multi-ports », avec une puissance annoncée adaptée aux smartphones et accessoires nomades.

    Pour une configuration axée sur l’USB-C (et la recharge d’appareils variés), un chargeur/adaptateur universel Ugreen avec ports USB-C et USB-A est une option à surveiller, notamment si vous cherchez un format pratique pour de courts séjours et des recharges simultanées.

    Ce qu’il vaut mieux éviter

    Certains adaptateurs « compacts » ou très spécifiques peuvent poser des limites : mécanismes difficiles à utiliser, ports USB dont la puissance totale est faible, ou compatibilités de fiches incomplètes selon les régions. Dans une démarche rationnelle, il est préférable de privilégier des modèles dont la fiche est clairement indiquée et dont les ports USB correspondent réellement à votre usage (et à la puissance nécessaire).

  • Les licenciements de Trump ont porté un nouveau coup à la science américaine

    Les licenciements de Trump ont porté un nouveau coup à la science américaine


    Des décisions prises au sommet de l’État peuvent avoir des effets directs sur la gouvernance de la recherche. Dans ce contexte, l’éviction soudaine de membres de l’instance dirigeante de la National Science Foundation (NSF) a ravivé les inquiétudes sur la stabilité du pilotage de la science américaine.

    Un conseil réduit à sa mission de supervision

    Au sein de la NSF, le National Science Board joue un rôle central. Les membres qui le composent, notamment lors de leur première désignation, sont nommés par un président américain pour un mandat d’au moins six ans. Selon un physicien et astronome ayant siégé à ce conseil, ces nominations permettent au board de fixer des orientations, d’autoriser de grands programmes et d’exercer une forme de contrôle sur l’allocation des moyens.

    Le conseil a aussi pris part à des choix structurants pour l’agence, comme la création d’une nouvelle entité destinée à orienter des financements vers la technologie, l’innovation et des partenariats, ainsi que l’approbation de soutiens liés à de grands projets d’astronomie.

    Une éviction immédiate qui suscite l’incompréhension

    La situation a toutefois basculé brusquement. Un membre du board affirme avoir reçu, la semaine précédente, un courrier l’informant que sa fonction était interrompue sans délai, au motif invoqué d’une décision portée par la présidence. Pour lui, cette nouvelle a été particulièrement décevante.

    Cette perspective s’inscrit dans un climat plus large de changements rapides au sein d’agences fédérales, avec des impacts rapportés sur la continuité de certains dispositifs de soutien à la recherche.

    Des nominations et des décisions hors du périmètre du board

    Selon les éléments évoqués par le même scientifique, la gouvernance du conseil n’aurait pas été impliquée dans les mesures de gel ou de suppression de financements intervenues ces derniers mois. Les membres du board n’auraient pas eu, non plus, de levier direct sur des décisions concernant le personnel de l’agence.

    Il souligne également une baisse des effectifs, de l’ordre de 40%, ce qui, dans un organisme qui finance et supervise des projets à long cycle, peut perturber la mise en œuvre des programmes et la capacité d’accompagnement des équipes.

    Quelles conséquences pour la science financée par l’État ?

    Au-delà de la perte d’un mandat individuel, c’est la question de la continuité institutionnelle qui se pose. Un conseil disposant d’un pouvoir d’orientation et de validation peut difficilement maintenir sa dynamique lorsque des changements de composition interviennent de manière abrupte. Dans le même temps, l’incertitude liée aux décisions touchant les subventions et les équipes augmente la difficulté pour les laboratoires et projets de se projeter.

    Pour les chercheurs et les établissements, l’enjeu est de préserver la stabilité des programmes et de maintenir des cadres de financement prévisibles, condition essentielle à la planification scientifique, au recrutement et au développement d’infrastructures.

    Dans ce contexte, certains acteurs de la recherche s’appuient aussi sur des outils d’organisation et d’analyse pour limiter les retards administratifs. Par exemple, un logiciel de gestion de références comme un dispositif ou support pour la gestion bibliographique et la conformité documentaire peut aider les équipes à mieux structurer leurs dossiers malgré les aléas. De même, l’équipement pour la visualisation et le traitement de données, tel que un stockage externe haute capacité pour sécuriser des jeux de données, peut réduire les risques liés aux interruptions opérationnelles.

  • Voici déjà une méthode pour fixer votre smartphone à une manette Steam

    Voici déjà une méthode pour fixer votre smartphone à une manette Steam


    Une nouvelle option de fixation vient élargir les usages du Steam Controller de Valve. Le fabricant d’accessoires Mechanism prépare un support conçu pour accueillir le contrôleur sur un smartphone, tout en restant compatible avec d’autres systèmes de montage déjà commercialisés pour les consoles portables et le PC.

    Un accessoire pensé pour fixer le Steam Controller à un smartphone

    Le Basegrip for Steam Controller (nom de l’accessoire) s’ajuste à l’arrière du contrôleur grâce à une forme étudiée, afin de le maintenir solidement. L’ensemble laisse néanmoins un espace nécessaire au branchement de la station de charge magnétique du Steam Controller, ce qui évite de devoir modifier l’équipement.

    Dans l’optique “écosystème” de Mechanism, ce Basegrip est pensé pour s’intégrer à plusieurs supports déjà disponibles. L’accessoire peut notamment être combiné avec un support téléphone magnétique compatible avec les montages de la marque, permettant de transformer smartphone et contrôleur en une configuration de jeu plus compacte.

    Des limites liées au logiciel de Valve

    Malgré l’intérêt du montage, l’expérience dépend fortement des choix logiciels de Valve. À ce jour, le Steam Controller est conçu pour fonctionner avec Steam et l’application Steam Link, ce qui signifie que l’usage avec iOS ou Android n’est pas universel. Concrètement, les fonctionnalités peuvent être plus restreintes que sur un système directement piloté via Steam.

    Mechanism indique que la compatibilité ne concerne pas encore l’ensemble des appareils iOS ou Android. Des mises à jour côté logiciel pourraient améliorer la situation, mais la valeur de l’accessoire pour un smartphone reste donc, pour l’instant, plus expérimentale que pleinement convaincante.

    Autres accessoires à venir

    Au-delà du Basegrip, Mechanism prévoit également un Dock dédié au Steam Controller. Celui-ci doit servir de station de présentation lorsqu’on n’utilise pas le contrôleur, tout en intégrant sa recharge via la pastille (puck) correspondante.

    Pour compléter une configuration mobile, certains utilisateurs privilégient aussi une solution de support stable pour le smartphone. Par exemple, un support pliable pour téléphone peut aider à conserver une posture de jeu stable selon les conditions d’utilisation.

  • Un nouveau réseau téléphonique américain pour les chrétiens vise à bloquer la pornographie et les contenus liés au genre

    Un nouveau réseau téléphonique américain pour les chrétiens vise à bloquer la pornographie et les contenus liés au genre


    Un nouvel opérateur virtuel américain, Radiant Mobile, lance une offre de téléphonie mobile conçue pour filtrer certaines catégories de contenus en ligne, dont la pornographie et des contenus liés aux thématiques LGBT et trans. Porté par des responsables chrétiens, le projet s’appuie sur des mécanismes de blocage au niveau du réseau, avec une logique présentée comme “fermée” et difficile à contourner.

    Un filtrage au cœur de l’offre

    Radiant Mobile, commercialisée dans le cadre d’un réseau mobile porté par T-Mobile via un opérateur MVNO, affirme vouloir créer un environnement numérique centré sur la foi chrétienne. Son fondateur, Paul Fisher, explique vouloir supprimer l’accès à des catégories de contenus qu’il juge incompatibles avec les valeurs religieuses défendues par l’entreprise.

    Selon les informations disponibles, un responsable de l’entreprise indique que le filtrage ne se limite pas à un simple blocage “optionnel” : certaines catégories seraient interdites par défaut et ne pourraient pas être autorisées même pour des utilisateurs adultes. T-Mobile n’aurait pas de relation directe avec Radiant Mobile, celle-ci passant par un gestionnaire de MVNO.

    Objectif : bloquer sans passer par des réglages individuels

    La stratégie de Radiant Mobile s’appuie sur une technologie de cybersécurité fournie par l’entreprise israélienne Allot. Le principe repose sur une catégorisation des domaines web : si un utilisateur tente d’accéder à une ressource classée dans une catégorie bloquée, la page ne se charge pas.

    Parmi les catégories mentionnées, figurent notamment la pornographie, mais aussi d’autres contenus comme la violence, les contenus associés au piratage ou encore certains sites classés dans des “sectes”, incluant des références au satanisme. Le dispositif est décrit comme plus direct qu’une application de filtrage installée sur un appareil, car il s’exécute côté réseau.

    Une approche plus dure que les outils de filtrage classiques

    Les systèmes de blocage réseau existent déjà. Aux États-Unis, les opérateurs filtrent parfois des domaines identifiés comme malveillants ou proposent des contrôles pour limiter l’accès à des contenus adultes sur des téléphones d’enfants. Ce qui marque la démarche de Radiant Mobile, d’après les éléments communiqués, est l’existence de restrictions au niveau du réseau présentées comme non désactivables par les adultes.

    Les responsables de Radiant Mobile défendent cette méthode comme une façon de “fermer la porte” à des contenus considérés comme problématiques. De leur côté, des observateurs soulignent que le blocage de contenus sur un réseau peut rappeler des usages plus coercitifs ailleurs, même si les intentions et les périmètres varient selon les contextes.

    Des enjeux de contrôle et de contournement

    Dans la pratique, les mécanismes de filtrage peuvent être contournés avec certains outils, notamment quand ils reposent uniquement sur des réglages applicatifs. Toutefois, un filtrage opéré au niveau du réseau est généralement plus contraignant, car il ne dépend pas uniquement de la configuration du terminal.

    Pour les utilisateurs cherchant à renforcer la protection numérique à la maison, des solutions de contrôle parental peuvent aussi être envisagées en complément. Par exemple, un routeur doté de fonctions de filtrage et de supervision comme un routeur compatible contrôle parental ou un appareil orienté “famille” permettant de gérer les usages peut constituer une alternative selon les besoins.

    Perspectives : diffusion internationale et réponses aux politiques des opérateurs

    Radiant Mobile ambitionne aussi d’étendre son modèle à d’autres pays comptant une forte population chrétienne, comme la Corée du Sud ou le Mexique. La question de la compatibilité avec les règles des opérateurs et les politiques d’accès aux contenus reste toutefois un point sensible, notamment lorsque le filtrage s’applique de manière systématique au réseau.

    En parallèle, le débat général sur le filtrage et la modération au niveau infrastructurel devrait se poursuivre, d’autant que les technologies évoluent et que les attentes des utilisateurs et des régulateurs divergent.

    Pour ceux qui souhaitent mieux gérer l’accès aux contenus en environnement familial, un service ou un outil de filtrage pour appareils mobiles peut également être étudié, comme une application de contrôle parental pour smartphone, afin de comparer les options selon le niveau de contrôle recherché.

  • Uber vise à transformer ses millions de chauffeurs en réseau de capteurs au service des entreprises de véhicules autonomes

    Uber vise à transformer ses millions de chauffeurs en réseau de capteurs au service des entreprises de véhicules autonomes


    Uber envisage de transformer, à terme, une partie de ses millions de conducteurs en un vaste réseau de collecte de données destiné aux entreprises de véhicules autonomes. L’objectif serait d’équiper les voitures de capteurs afin d’alimenter des bases de données utiles à l’entraînement de systèmes d’intelligence artificielle évoluant en conditions réelles.

    Une ambition qui dépasse le transport de passagers

    Lors d’une prise de parole évoquant le projet, le directeur technologique d’Uber, Praveen Neppalli Naga, a expliqué que cette orientation s’inscrit dans la continuité d’initiatives déjà lancées autour de la collecte de données pour des partenaires travaillant sur des robotaxis et d’autres solutions d’autonomie.

    Pour l’instant, Uber s’appuie sur une flotte limitée de véhicules déjà équipés de capteurs, gérés séparément du réseau de chauffeurs. Mais la perspective vise une montée en puissance à plus grande échelle, sous réserve de clarifications réglementaires.

    Le responsable a notamment souligné la nécessité d’un cadre clair sur la signification des capteurs et sur les conditions de partage des données, État par État.

    Le vrai goulot d’étranglement: l’accès aux données

    Uber présente le plan comme une réponse à un problème central du secteur: la disponibilité des données. Selon l’entreprise, les progrès en autonomie ne seraient plus principalement freinés par la technologie, mais par la capacité à rassembler suffisamment d’exemples couvrant une large variété de scénarios.

    L’idée est de pouvoir cibler des situations précises — par exemple un carrefour à une heure donnée — et d’obtenir des données exploitables pour entraîner des modèles. L’enjeu est aussi économique: déployer des flottes dédiées demande des capitaux importants.

    Une stratégie de “couche de données” pour l’écosystème

    Dans le même mouvement, Uber développe une approche décrite comme une “AV cloud”, conçue pour mettre à disposition des données capteur annotées que des partenaires peuvent analyser et utiliser pour entraîner leurs modèles.

    Les partenaires peuvent également tester leurs systèmes en mode simulation, en comparant le comportement attendu dans un “shadow mode” par rapport à des trajets réellement observés via le réseau Uber, sans nécessiter d’en déployer immédiatement un robotaxi sur la route.

    L’entreprise affirme vouloir favoriser une forme de démocratisation de ces données, davantage que monétiser directement leur usage.

    Un intérêt industriel qui pourrait aussi devenir concurrentiel

    Même si Uber met en avant une logique ouverte, la valeur commerciale d’un accès massif à des données d’entraînement est évidente. En pratique, celui qui dispose de volumes importants et de jeux de données bien exploités peut prendre une avance, notamment face à des sociétés qui dépendent encore de leur capacité à déployer leurs propres moyens de collecte.

    Uber a déjà noué de nombreuses collaborations avec des acteurs de l’autonomie. Cette dynamique renforce l’idée que le rôle de “fournisseur de données” pourrait devenir progressivement stratégique pour l’ensemble du secteur.

    Ce que cela implique pour la réalité des capteurs

    Mettre en place un réseau fondé sur des capteurs installés sur des véhicules du quotidien suppose de standardiser leur fonctionnement, d’assurer une qualité de collecte cohérente et de garantir des règles de partage compréhensibles. Les questions réglementaires et opérationnelles restent donc au cœur du calendrier.

    Pour les observateurs, le sujet se résume à une combinaison: capacité technique à intégrer des capteurs, robustesse des données produites, et cadre légal permettant leur exploitation.

    Deux produits liés aux capteurs, pour comprendre l’écosystème

    Pour mieux visualiser les contraintes d’un “matériel capteur” embarqué, beaucoup se tournent d’abord vers des solutions de dashcam ou de caméras embarquées qui illustrent la logique de collecte vidéo en conditions réelles. Par exemple, une dashcam pour voiture peut aider à saisir comment la qualité d’image, la stabilité et la gestion des enregistrements influencent l’exploitabilité des données. D’autres explorent aussi des dispositifs orientés “capteurs” et enregistrement multi-angles via une dashcam avant/arrière, utile pour comprendre les limites d’un système quand il faut couvrir plusieurs points de vue.

  • Apple arrête la version la moins chère du Mac mini

    Apple arrête la version la moins chère du Mac mini



    Apple semble avoir retiré de la vente sa version la plus abordable du Mac mini, un changement repéré sur la page du magasin en ligne. Jusqu’ici, le modèle d’entrée de gamme était annoncé à 599 dollars, mais les configurations disponibles ne correspondent plus à ce palier de prix. La situation s’explique par des contraintes d’approvisionnement et par la demande croissante liée à l’usage du Mac mini pour l’IA et des outils “agents”.

    Un modèle d’entrée de gamme qui disparaît

    Selon les informations observées dans le catalogue d’Apple, la version la moins chère du Mac mini n’est plus proposée. Désormais, l’achat commence à des configurations intégrant au moins 512 Go de stockage, ce qui fait basculer le tarif effectif vers un niveau supérieur. Le Mac mini ne se retrouve donc plus au niveau “entrée de gamme” qu’Apple commercialisait jusque-là.

    La question de la disponibilité de certaines capacités (mémoire et stockage, notamment) semble déterminante. Dans ce contexte, retirer une configuration trop “optimisée” en coût pourrait permettre à Apple d’aligner plus facilement son offre sur les disponibilités industrielles.

    La demande pour l’IA joue probablement un rôle

    Le Mac mini est devenu un choix populaire pour exécuter des modèles locaux et développer des applications autour de l’IA. Cette adoption, portée par la facilité d’intégration du format compact, aurait renforcé la pression sur les composants nécessaires. Le discours d’Apple, lors de ses dernières communications aux investisseurs, allait d’ailleurs dans ce sens : l’entreprise évoquait des délais nécessaires pour retrouver un équilibre entre l’offre et la demande pour le Mac mini et le Mac Studio.

    Pourquoi le “prix de départ” peut changer

    Apple a déjà ajusté la configuration minimale de plusieurs produits lorsque les coûts et les contraintes sur la mémoire et le stockage évoluent. Dans le cas du Mac mini, l’absence d’un équivalent “moins cher” sur la gamme du bureau complique l’effet d’amortissement : si une configuration à prix agressif disparaît, le marché ne dispose pas immédiatement d’une alternative interne au même niveau tarifaire.

    À l’heure actuelle, aucune fenêtre claire n’est donnée sur un éventuel retour d’un Mac mini à 599 dollars. Apple n’a pas non plus, dans les informations disponibles, détaillé un calendrier.

    Quelles options pour les acheteurs potentiels

    Pour ceux qui recherchent encore un Mac mini compact, la logique la plus directe consiste à se tourner vers une configuration dont le stockage minimal correspond aux offres actuelles. À défaut d’un modèle équivalent au “plus bas prix” historique, il peut être pertinent de privilégier une option offrant un espace de travail suffisant pour les usages multimédias et certains scénarios liés à l’IA locale.

    • Pour une approche “poste de travail compact”, certains acheteurs considèrent une base renforcée en stockage, comme via ce Mac mini avec 512 Go, selon les modèles et promotions disponibles.
    • Si l’objectif est de compléter la machine pour des usages de données, un SSD externe rapide (NVMe) de 1 To peut aider à étendre l’espace sans multiplier les achats en configuration interne.

    En résumé, la suppression du Mac mini le moins cher illustre une double réalité : des contraintes d’approvisionnement sur les composants et une hausse de la demande, notamment autour des usages IA. Tant qu’Apple ne réintroduira pas un palier de configuration plus accessible, le “prix d’entrée” du Mac mini devrait rester au-dessus de celui qui faisait référence ces derniers mois.

  • Des sous-marins bon marché pour explorer le fond des océans et dynamiser la science marine — voire l’exploitation minière

    Des sous-marins bon marché pour explorer le fond des océans et dynamiser la science marine — voire l’exploitation minière


    Des submersibles conçus pour être plus accessibles pourraient accélérer l’exploration des grands fonds et renouveler la recherche en milieu marin. Mais cette évolution technologique soulève aussi des débats, à mesure que l’intérêt industriel se renforce autour de l’exploitation du plancher océanique.

    Des machines plus maniables, mais encore perfectibles

    Comme pour toute nouvelle génération d’équipements, les premières missions ont révélé des “difficultés de démarrage”. Températures très basses et reliefs marqués compliquent les opérations, et plusieurs semaines ont été nécessaires pour obtenir des images haute résolution des zones de suintements. Malgré ces obstacles, les chercheurs restent attentifs aux possibilités offertes par ces systèmes pour mieux comprendre les interfaces entre les sédiments et l’eau de mer.

    L’idée générale est d’associer capteurs et dispositifs d’échantillonnage afin de réaliser, de manière ciblée, des mesures dans des environnements encore mal connus. Sur le plan opérationnel, ces submersibles cherchent un équilibre: ils peuvent parcourir de larges zones tout en effectuant ensuite des manœuvres précises, à la manière d’un robot télécommandé.

    Vers une recherche plus accessible

    Au-delà du potentiel scientifique, la taille plus réduite de ces engins pourrait réduire les coûts logistiques. Moins dépendants de grands navires de recherche, ils pourraient faciliter l’exploration par des équipes disposant de moyens limités, notamment dans des pays qui peinent à mobiliser des infrastructures lourdes. Les données collectées, notamment via des carottes de sédiments, pourraient aussi contribuer à étudier comment la faune du fond participe au recyclage des nutriments, un mécanisme important pour le rôle de l’océan dans le stockage du carbone.

    Pour suivre et préparer ce type de missions, certains laboratoires s’appuient sur des équipements de terrain robustes. Par exemple, des capteurs CTD pour la mesure de température, salinité et profondeur peuvent s’intégrer aux stratégies d’observation, selon les besoins des campagnes et l’architecture des charges utiles.

    Des usages scientifiques… et des attentes industrielles

    Si les chercheurs voient dans ces véhicules un outil d’acquisition de données, les demandes du secteur privé se multiplient. Des acteurs liés à l’exploration minière en eaux profondes, mais aussi à la défense, aux énergies offshore, aux télécommunications ou au pétrole et gaz, manifestent un intérêt régulier. Les submersibles sont présentés comme des “fournisseurs de service”: ils collectent des informations, sans décider en amont de l’usage qui sera fait du plancher océanique.

    Or, la qualité des données – cartographie du relief, description des sédiments, présence de signes de vie – peut influer sur les conditions d’intervention et sur les exigences de contrôle. Elle pourrait également contribuer à définir plus finement les règles que les autorités commencent seulement à mettre en place.

    Dans cette perspective, l’intégration de logiciels d’analyse et de systèmes de stockage devient un enjeu pratique. À titre d’illustration, des solutions de journalisation et d’exploitation des données peuvent aider à structurer des flux de mesures issus de capteurs multiples, tout en renforçant la traçabilité des campagnes.

    Le débat autour de l’exploitation du plancher océanique

    Le mouvement vers l’exploration et l’éventuelle exploitation des ressources marines suscite toutefois des réactions prudentes dans la communauté scientifique. D’un côté, les gouvernements et institutions cherchent à accélérer l’identification de gisements et la préparation des filières industrielles. De l’autre, certains chercheurs jugent que les connaissances environnementales restent encore insuffisantes pour encadrer durablement les impacts potentiels.

    Dans ce contexte, l’enjeu dépasse la seule performance des submersibles. Il s’agit aussi de la manière dont les données collectées seront utilisées: pour mieux comprendre les écosystèmes et leurs cycles, ou pour soutenir des opérations d’extraction. La capacité à produire des mesures fiables, reproductibles et comparables sera déterminante pour éclairer les décisions à venir, qu’elles soient scientifiques ou réglementaires.