Catégorie : Technologie

  • La manette Steam Controller de Valve coûte 99 $ et sera disponible le 4 mai

    La manette Steam Controller de Valve coûte 99 $ et sera disponible le 4 mai


    Le Steam Controller de Valve, attendu comme une manette pensée pour l’écosystème Steam, sera disponible aux États-Unis à partir du lundi 4 mai, au prix de 99 dollars. Conçu pour fonctionner avec Steam et l’application Steam Link, il vise notamment les joueurs qui souhaitent piloter leurs titres depuis différents appareils, sans transformer la manette en périphérique universel pour PC.

    À terme, Valve prévoit aussi d’étendre son approche à d’autres plateformes, avec l’arrivée annoncée de sa console Steam Machine et d’un casque VR baptisé Steam Frame. Toutefois, à ce stade, les dates restent incertaines, ce qui place le Steam Controller au centre de la trajectoire annoncée.

    Un contrôleur pensé pour Steam avant tout

    Le Steam Controller se distingue par une logique simple : il communique avec tout ce qui exécute Steam, ou l’application Steam Link. Cela couvre un large éventail d’usages, allant du PC aux appareils mobiles, en passant par la Steam Deck. L’idée est de proposer une expérience cohérente dans l’écosystème Steam, plutôt que d’offrir une compatibilité totale avec des jeux lancés via d’autres services.

    En pratique, cela implique que les jeux doivent passer par la bibliothèque Steam pour être joués avec la manette. Certains titres populaires existent sous forme de versions ajoutées au service, mais d’autres peuvent nécessiter des étapes supplémentaires selon leur mode de lancement ou leurs intégrations.

    Design et ergonomie : une approche proche de la Steam Deck

    Selon les retours et évaluations déjà disponibles, le Steam Controller adopte un format et une prise en main familiers. Il reprend visuellement l’esprit de la Steam Deck, avec deux pavés directionnels/trackpads intégrés sous les sticks, complétés par une surface de boutons classique. Le contrôleur intègre aussi un système de recharge et de connexion via un petit socle magnétique.

    Pour les joueurs qui cherchent un périphérique orienté “usage Steam” et disposant de commandes modulaires, la proposition paraît solide, d’autant plus au regard de son positionnement à 99 dollars.

    Ce qu’il faut considérer avant l’achat

    Avant de se décider, la principale question reste la compatibilité logicielle. Le Steam Controller n’a pas vocation à remplacer une manette PC standard universelle : il fonctionne dans le cadre de Steam et des jeux présents dans la bibliothèque. Pour une utilisation optimale, il faut donc planifier ses jeux et leurs modes de lancement en conséquence.

    • Le contrôleur est avant tout optimisé pour Steam (et Steam Link), pas pour une compatibilité brute “tous PC et tous jeux”.
    • Pour jouer, les titres doivent être disponibles et lancés via Steam.
    • Son format et ses commandes conviennent particulièrement à ceux qui veulent une prise en main proche de la Steam Deck.

    Pour accompagner l’usage à distance, certains préféreront aussi un bon support ou un accessoire dédié. Par exemple, un support pratique pour manette/terminal peut faciliter les sessions sur écran ou en salon.

    Enfin, si vous prévoyez de connecter régulièrement la manette à différents appareils, une station ou base de recharge USB compatible peut rendre l’usage plus simple au quotidien, sans remplacer le système de connexion prévu.

    Avec un lancement programmé le 4 mai aux États-Unis, le Steam Controller s’impose comme un choix rationnel pour les joueurs déjà investis dans Steam, en particulier ceux qui apprécient une manette au fonctionnement intégré à l’écosystème plutôt qu’une approche généraliste.

  • L’entreprise indienne Snabbit lève 56 millions de dollars grâce à l’intérêt croissant pour les services à domicile à la demande

    L’entreprise indienne Snabbit lève 56 millions de dollars grâce à l’intérêt croissant pour les services à domicile à la demande


    La startup indienne de services à domicile à la demande Snabbit a annoncé avoir bouclé un tour de table de 56 millions de dollars. Cette levée confirme l’intérêt grandissant des investisseurs pour un secteur urbain où les consommateurs recherchent des interventions rapides à domicile, notamment pour le ménage et la lessive.

    Un tour de financement significatif

    Selon une personne informée, le tour de série D a été mené avec le concours de Susquehanna Venture Capital, du Unicorn Growth Fund de Mirae Asset Venture Investments et de Bertelsmann India Investments. La valorisation associée à l’opération serait d’environ 350 millions de dollars, en hausse par rapport à une estimation autour de 180 millions de dollars quelques mois plus tôt.

    D’autres investisseurs ont également participé, dont Nexus Venture Partners et Lightspeed, ainsi que FJ Labs. Au total, Snabbit aurait levé environ 112 millions de dollars.

    Des opérations en croissance rapide

    Fondée en 2024, la société indique traiter plus de 40 000 demandes par jour grâce à un réseau de plus de 15 000 intervenants répartis dans cinq villes. Son offre comprend notamment le nettoyage, la vaisselle et le linge, dans un contexte où la demande pour des prestations « à la minute » progresse dans les grandes agglomérations.

    La startup affirme par ailleurs avoir amélioré certains indicateurs de performance : les pertes liées à chaque commande auraient diminué d’environ 50 %, tandis que le coût d’acquisition client baisserait d’environ 65 %.

    Un secteur qui attire davantage de capitaux

    La levée de Snabbit s’inscrit dans une dynamique plus large. D’autres acteurs du « home services » à la demande en Inde suscitent aussi l’attention des investisseurs, comme en témoigne l’effervescence autour d’entreprises comparables et la visibilité accrue de certaines plateformes.

    À l’échelle du marché, l’enjeu pour ces sociétés reste généralement le même : consolider le réseau de prestataires, garantir la qualité et la ponctualité, tout en réduisant le coût par commande afin de soutenir une croissance rentable.

    Dans cette logique, certains ménages cherchent à compléter ces services par un équipement domestique fiable, par exemple via un aspirateur compact pour le nettoyage rapide entre deux prestations, ou un panier à linge pliable pour organiser plus efficacement le circuit linge.

  • Paquet open source : 1 million de téléchargements mensuels, des identifiants utilisateurs volés

    Paquet open source : 1 million de téléchargements mensuels, des identifiants utilisateurs volés



    Les développeurs qui ont installé une version précise d’un paquet Python open source sont invités à agir rapidement. Une publication de sécurité indique qu’un composant, téléchargé environ un million de fois par mois, a été impliqué dans une compromission visant les informations d’identification de certains utilisateurs.

    Mesures immédiates recommandées

    Les équipes concernées doivent vérifier leur environnement et, si nécessaire, remplacer la version vulnérable. Les consignes portent sur plusieurs étapes, allant du contrôle de version à la suppression d’éventuels résidus.

    • Vérifier la version installée via pip show elementary-data | grep Version.
    • Si la version identifiée est 0.23.3, désinstaller le paquet puis installer la version corrigée (pip install elementary-data==0.23.4).
    • Dans les fichiers requirements et les fichiers de verrouillage, fixer explicitement la dépendance à elementary-data==0.23.4.
    • Supprimer les fichiers de cache afin de réduire le risque de conserver des artefacts liés au paquet.

    Recherche d’indices de compromission

    Le dispositif de mitigation inclut aussi la vérification d’un fichier marqueur susceptible d’indiquer qu’un script a pu s’exécuter sur la machine concernée. Les emplacements mentionnés diffèrent selon le système :

    • macOS / Linux : /tmp/.trinny-security-update
    • Windows : %TEMP%\\\.trinny-security-update

    Rotation des identifiants potentiellement exposés

    Le point le plus sensible concerne les secrets accessibles au moment de l’exécution de la version vulnérable. Les recommandations appellent à remplacer toute information d’identification potentiellement consultable, notamment :

    • identifiants de bases de données et profils de type dbt ;
    • clés de fournisseurs cloud ;
    • jetons d’API ;
    • clés SSH ;
    • contenu de fichiers .env contenant des variables d’environnement.

    Les environnements d’intégration continue et de déploiement (CI/CD) sont particulièrement visés, car ils disposent souvent de droits étendus et de secrets montés automatiquement au runtime.

    Contexte : risques dans la chaîne d’approvisionnement open source

    Cette alerte s’inscrit dans un contexte plus large : les attaques par « chaîne d’approvisionnement » (supply chain) se multiplient et peuvent viser des dépôts open source. En cas de compromission d’un paquet, l’impact peut ensuite se propager vers les systèmes et les environnements des utilisateurs.

    Selon des spécialistes du secteur, les workflows créés par les communautés (notamment dans des outils d’automatisation de type Git) peuvent aussi ouvrir des surfaces d’attaque, car il reste difficile d’éviter, dans la pratique, la création de mécanismes dangereux exploitables via des contributions malveillantes.

    Pour aider à détecter certains types de configurations à risque, un outil mentionné dans l’alerte est présenté comme une ressource possible lors d’audits de dépendances et de scénarios d’exécution.

    Prévenir la récidive : durcir les environnements

    Au-delà du correctif immédiat, les organisations peuvent renforcer leurs pratiques de sécurité pour réduire le risque futur. Par exemple, limiter les secrets disponibles aux seuls jobs nécessaires, segmenter les droits et surveiller les usages inhabituels des identifiants.

    Dans une logique de gouvernance, l’accent peut aussi être mis sur la gestion centralisée des secrets. Pour cela, certaines équipes s’appuient sur des solutions comme un gestionnaire de secrets de type coffre-fort, afin de faciliter la rotation et de mieux contrôler l’accès.

    Enfin, l’hygiène des dépendances reste un levier majeur : un suivi automatisé des vulnérabilités et des changements de versions via des outils d’analyse de composition logicielle (SCA) peut contribuer à détecter plus tôt les composants problématiques.

  • Placer le lancement au crayon : la mission Artemis III de la NASA ne décollera pas avant la fin 2027

    Placer le lancement au crayon : la mission Artemis III de la NASA ne décollera pas avant la fin 2027


    Artemis III, mission habitée visant à ramener des humains sur la Lune, ne devrait pas décoller avant la fin 2027, selon des indications récentes fournies dans le cadre des échanges budgétaires liés à NASA. Le calendrier pourrait toutefois être ajusté en fonction de l’avancement de deux systèmes d’atterrissage destinés à la surface lunaire.

    Un objectif d’au moins fin 2027

    Dans ses communications, le responsable de la sécurité et de la planification de la mission a indiqué avoir reçu des retours de deux industriels, SpaceX et Blue Origin, afin de répondre aux besoins d’un rendez-vous orbital, d’une approche puis d’un accostage en vue de tester l’interopérabilité des deux atterrisseurs. Le tout viserait une fenêtre au plus tôt fin 2027, en amont d’une tentative d’atterrissage programmée pour 2028.

    Ces atterrisseurs, financés par des contrats de plusieurs milliards de dollars, doivent pouvoir être ravitaillés en orbite avant d’effectuer leur trajet vers la Lune. Cette contrainte, plus complexe que pour une mission en orbite terrestre, fait partie des facteurs qui influencent directement la préparation et le calendrier.

    Des engins plus grands que l’époque Apollo

    Les futurs modules d’atterrissage associés à l’Artemis reposent sur des concepts plus vastes que le module lunaire utilisé lors d’Apollo. Leur gabarit pourrait, à terme, permettre des opérations multiples sur la surface, en transportant équipages et cargaisons entre la zone d’amarrage en orbite et le sol lunaire.

    Cette capacité à effectuer des aller-retours est vue comme un levier pour soutenir une présence prolongée sur la Lune et accroître la logistique, sans dépendre uniquement d’un matériel qu’il faudrait renouveler à chaque opération.

    Les défis du vol habité : une marche de progression à franchir

    La mise en service de Starship et Blue Moon pour un scénario avec équipage implique plusieurs étapes techniques avant une mission habitée. En comparaison, lors d’Apollo 9, les astronautes ont réalisé un vol d’essai autour de la manœuvre de séparation et de reconnexion entre le module lunaire et le reste de l’architecture de mission.

    Pour un test analogue dans le cadre d’Artemis III, une configuration nécessiterait notamment des systèmes de survie indépendants, des moteurs qualifiés pour l’homme, un cockpit et des mécanismes d’amarrage. Or, à ce stade, les informations publiques détaillant où en sont exactement ces éléments dans le cycle de développement et de production restent limitées.

    Scénarios alternatifs si le calendrier se tend

    NASA pourrait aussi envisager une version moins ambitieuse d’Artemis III, centrée sur un rendez-vous et un accostage, sans que l’atterrisseur réalise un vol habité indépendant jusqu’à la surface. Les décideurs devront trancher dans les prochains mois, en tenant compte de la cadence d’avancement des programmes en cours.

    Les réflexions s’appuierauraient notamment sur la rapidité avec laquelle SpaceX poursuit le développement et les essais de la prochaine génération de Starship, ainsi que sur l’avancement prévu par Blue Origin pour une mission de démonstration non habitée avec le cargo Blue Moon, destinée à un atterrissage près du pôle sud lunaire.

    Repères pour mieux suivre la complexité d’Artemis

    Pour garder une lecture claire des évolutions techniques et des jalons orbitaux (accostage, ravitaillement, qualification des systèmes), il peut être utile de s’appuyer sur des supports pédagogiques et de vulgarisation. Par exemple, un ouvrage général sur l’exploration lunaire moderne comme un guide sur l’exploration de la Lune peut aider à replacer les étapes d’Artemis dans une chronologie plus large. De même, suivre les notions de propulsion et de systèmes spatiaux via des livres sur l’ingénierie des systèmes de vaisseaux spatiaux permet de mieux comprendre pourquoi l’accostage et la sécurité embarquée pèsent autant sur le calendrier.

  • Elon Musk et Sam Altman s’affrontent en justice au sujet de l’avenir d’OpenAI

    Elon Musk et Sam Altman s’affrontent en justice au sujet de l’avenir d’OpenAI


    Elon Musk et Sam Altman se retrouvent au tribunal dans un contentieux centré sur l’avenir d’OpenAI. Au-delà de la rivalité personnelle et des enjeux médiatiques, l’audience met en lumière une question structurante pour l’entreprise : comment concilier la mission initiale d’intérêt général avec les exigences financières et stratégiques qui accompagnent la course aux technologies d’intelligence artificielle.

    Des demandes visant la gouvernance d’OpenAI

    Dans sa plainte, Elon Musk réclame plusieurs mesures. Il demande notamment l’attribution de dommages et intérêts, ainsi que la suppression de Sam Altman et de Greg Brockman de leurs fonctions. Il vise également un retour à un modèle associatif, en demandant que la structure d’OpenAI redevienne une organisation à but non lucratif.

    Sur le volet financier, Musk précise que tout montant éventuel devrait être attribué à OpenAI en tant qu’organisation à but non lucratif, plutôt qu’à son profit personnel.

    Une audience avec un verdict consultatif

    Le procès prévoit l’intervention de neuf jurés appelés à rendre un verdict consultatif. Celui-ci n’a pas force exécutoire, mais doit guider le juge dans sa décision. Musk, Sam Altman et Greg Brockman sont attendus à la barre.

    Le tribunal prévoit aussi des témoignages de plusieurs responsables liés à l’entreprise et à son principal partenaire financier. Parmi eux figurent notamment Ilya Sutskever, Mira Murati et Satya Nadella.

    Le cœur du désaccord : mission et modèle économique

    Au moment de sa création, OpenAI avait été lancée comme une organisation à but non lucratif, soutenue par une contribution initiale de Musk. L’entreprise s’était alors engagée à développer des technologies au bénéfice du public, sans contrainte de rendement pour des investisseurs. Au fil des années, ses dirigeants ont toutefois avancé que le contexte concurrentiel devenait trop risqué pour maintenir un fonctionnement exclusivement non lucratif, notamment en raison des moyens nécessaires pour poursuivre l’entraînement et la recherche.

    Dans le débat porté devant la justice, Musk affirme que des évolutions vers une structure plus orientée vers le profit auraient été préparées sans transparence à son égard. De leur côté, les représentants d’OpenAI soutiennent que Musk aurait accepté la nécessité d’une entité de type capitalistique.

    Un point juridique encore discuté

    Même si Musk parvenait à établir qu’il aurait été trompé, une difficulté juridique demeure : sa capacité à agir au nom de la gouvernance d’OpenAI, c’est-à-dire son « standing », pourrait être contestée. Certains spécialistes soulignent que ce type de recours, lorsqu’il s’agit de préserver la destination d’une structure caritative, relève souvent plutôt des autorités compétentes, comme les procureurs généraux.

    La restructuration déjà encadrée par des autorités

    Des éléments du dossier tiennent aussi à des négociations intervenues avec des autorités étatiques. En Californie, où l’entreprise est basée, et dans le Delaware, où elle est constituée, des procureurs généraux ont conclu un accord visant à valider la nouvelle organisation, sous conditions. Parmi celles-ci, figure notamment un mécanisme de supervision des sujets liés à la sécurité par une instance au sein de l’entité à but non lucratif.

    Cette restructuration a toutefois suscité des critiques, y compris de la part de personnes favorables à une gouvernance plus strictement alignée sur la mission initiale. En parallèle, un procureur général californien a indiqué ne pas rejoindre la procédure de Musk, estimant que l’action ne démontrait pas suffisamment un intérêt public.

    Ce que ce procès pourrait changer

    Au-delà de la question de savoir qui a informé qui, le procès pose un enjeu de fond pour l’écosystème de l’IA : le droit et la gouvernance peuvent-ils suivre le rythme des transformations industrielles, tout en garantissant une mission au bénéfice du public ? En cas de décisions défavorables aux requérants, cela pourrait limiter les marges de manœuvre pour de futures contestations. À l’inverse, un jugement qui donnerait du poids aux arguments de Musk renforcerait l’idée que la mission et la transparence doivent être juridiquement opposables.

    Dans l’attente, certains observateurs estiment que la procédure sera aussi un moment de clarification, dans la mesure où elle pourrait exposer des échanges internes et des éléments documentant les arbitrages ayant conduit à la structure actuelle.

    Pour mieux suivre ce type de contentieux, il peut être utile de disposer d’outils de suivi et de lecture de documents. Par exemple, un scanner portable pour archiver rapidement des documents peut faciliter l’examen de pièces et d’éléments annexes. Sur un autre registre, un carnet dédié à la prise de notes pour dossiers juridiques aide à structurer chronologies et points clés pendant le suivi d’une affaire.

  • Google alerte sur des pages web malveillantes contaminant des agents d’IA

    Google alerte sur des pages web malveillantes contaminant des agents d’IA


    Google alerte sur une menace émergente : des pages web malveillantes utilisent des injections de prompts indirectes pour détourner des agents d’intelligence artificielle en entreprise. Le principe repose sur l’insertion d’instructions cachées dans des contenus apparemment ordinaires, que l’agent ingère lorsqu’il parcourt le web pour produire une réponse.

    Le signal d’alarme s’appuie sur l’observation d’une tendance préoccupante identifiée dans des milliards de pages publiques : des “pièges” numériques qui demeurent inactifs tant qu’un système d’IA ne traite pas le texte au-delà de son usage standard.

    Des instructions cachées dans des pages “normales”

    Dans un scénario d’injection directe, l’attaquant tente de manipuler le modèle en lui demandant explicitement d’ignorer ses consignes. Les équipes de sécurité ont appris à mieux filtrer ces tentatives. Le risque est différent avec l’injection indirecte : l’attaquant place la consigne malveillante dans une source que l’agent considère comme légitime, par exemple une page consultée pour collecter des informations.

    Concrètement, des contenus peuvent être camouflés dans des blancs de mise en page, du texte invisible, ou dans des éléments du code HTML ou des métadonnées. Au moment où l’agent extrait le contenu pour l’analyser, il peut intégrer ces instructions comme s’il s’agissait d’un nouveau besoin à prioriser.

    Le point critique est que le modèle ne dispose pas, par nature, d’un mécanisme fiable pour distinguer ce qui relève du contenu attendu et ce qui relève d’un ordre dissimulé. Pour l’IA, le texte s’enchaîne comme un flux cohérent, y compris lorsqu’il s’agit d’une directive malveillante.

    Pourquoi la défense classique détecte mal l’attaque

    Les systèmes de protection classiques (pare-feu, EDR, contrôles d’accès réseau) reposent souvent sur des signaux techniques : trafic suspect, signatures de logiciels malveillants, comportements anormaux du réseau ou de l’identité. Or, dans ce type d’attaque, l’agent agit en apparence “comme d’habitude”.

    L’agent dispose de droits valides pour exécuter ses tâches autorisées : lire certaines bases, consulter des informations externes et produire des résultats. Lorsque la consigne injectée déclenche une action détournée, celle-ci peut ressembler à un enchaînement légitime, sans déclencher d’alerte évidente.

    Autrement dit, l’abus se situe moins dans la connectivité que dans la qualité et la confiance accordées aux données ingérées par l’agent.

    Limites de l’observabilité sans contrôle de l’intégrité

    Les outils de suivi s’intéressent fréquemment à des indicateurs opérationnels : consommation de jetons, latence des réponses, disponibilité. Ces mesures aident à diagnostiquer des problèmes de performance, mais elles ne garantissent pas que les décisions de l’agent respectent l’intention initiale.

    Quand l’agent se “décale” à cause de données empoisonnées, l’entreprise peut ne pas remarquer l’écart si aucun contrôle ne vérifie l’intégrité du raisonnement et la provenance des informations qui influencent la réponse.

    Vers une gouvernance plus stricte des agents IA

    Face à ce risque, l’approche la plus robuste consiste à réduire la surface d’exposition. Une piste discutée consiste à intégrer une étape de sanitisation avant toute analyse approfondie : un modèle restreint récupère la page, élimine les éléments potentiellement exploitables (formatage caché, instructions exfiltrables) et ne transmet au modèle principal qu’un contenu nettoyé.

    Si cette brique de filtrage est compromise, ses droits limités doivent empêcher toute action dommageable. L’objectif est d’éviter qu’un contenu malveillant transforme directement un agent privilégié en vecteur d’exécution.

    Autre levier : la segmentation des permissions. Un agent chargé de collecter des informations ne devrait pas détenir, par défaut, des capacités d’écriture dans les systèmes internes. L’accès doit être minimal et contextualisé, dans la logique du “principe du moindre privilège”.

    Enfin, les entreprises ont besoin de traçabilité : pouvoir relier une recommandation ou une action aux données exactes qui l’ont influencée. Sans chaînage clair entre sources externes, fragments de contenu utilisés et décision finale, l’investigation devient difficile.

    Dans l’environnement internet, qui reste hostile par conception, construire des agents capables d’y naviguer exige donc une gouvernance technique nouvelle : moins de confiance automatique dans les contenus ingérés, plus de contrôles en amont, et des garde-fous adaptés au “comportement” des systèmes IA.

    Quelques pistes pratiques pour réduire le risque

    • Mettre en place une étape de nettoyage des contenus web avant ingestion par le modèle principal, avec des droits strictement limités pour le composant de récupération.

    • Limiter les privilèges des agents et séparer les rôles (lecture, écriture, exécution) pour empêcher qu’une action malveillante ressemble à une opération normale.

    • Renforcer la traçabilité des décisions : conserver la provenance des informations et le contexte qui a conduit à la sortie.

    Pour le durcissement opérationnel, certaines organisations s’appuient aussi sur des équipements et solutions réseau/gestion des journaux qui améliorent la visibilité des flux internes. Par exemple, un SIEM ou appliance de supervision adaptée peut aider à centraliser les événements, même si la détection de ce type d’attaque exige surtout des contrôles côté IA et données.

    Côté formation et tests, un environnement de simulation est utile pour évaluer l’impact de contenus malveillants sur des agents. Un kit de laboratoire cybersécurité peut faciliter les exercices de validation interne, sans exposer des systèmes de production.

  • Star Trek : Strange New Worlds revient pour sa saison avant-dernière le 23 juillet

    Star Trek : Strange New Worlds revient pour sa saison avant-dernière le 23 juillet


    Star Trek: Strange New Worlds revient le 23 juillet pour une saison supplémentaire sur Paramount+. Composée de dix épisodes diffusés chaque semaine, elle s’étalera jusqu’au 24 septembre. Il s’agit, selon les informations communiquées, de l’avant-dernière “tranche” de la série, puisque le programme doit s’achever avec une saison finale plus courte.

    Une saison quatre attendue, entre gravité et continuité

    La plateforme a dévoilé un trailer pour cette quatrième saison. Le ton semble s’assombrir par rapport à la saison précédente, jugée plus inégale par certains spectateurs. Dans la bande-annonce, le capitaine Christopher Pike, incarné par Anson Mount, évoque la “terreur” de l’espace au moment où une planète est détruite. L’ensemble laisse entrevoir des épisodes où la menace et l’urgence prennent davantage de place.

    Malgré ce cadrage plus sombre, Strange New Worlds conserve l’esprit de la série : l’humour et les surprises restent au rendez-vous. La bande-annonce fait ainsi apparaître des créatures particulièrement marquantes, dont un dinosaure extraterrestre agressif, typique de l’imagination visuelle de la franchise.

    Des clins d’œil à la saga originale

    Cette nouvelle salve d’épisodes renforce aussi les liens avec l’univers de Star Trek dans sa version des années 1960. Des apparitions de personnages ou d’éléments familiers sont annoncées, notamment avec une présence significative de la version jeune de James T. Kirk, interprétée par Paul Wesley, dans plusieurs séquences. Certaines images semblent même conçues comme des rappels directs à des moments célèbres de la saga.

    Le programme devrait également intégrer davantage de détails attendus par les fans, comme un retour de Scotty plus jeune. Dans l’ensemble, la série poursuit son ambition : servir une narration majoritairement “épisodique”, tout en construisant des ponts vers le canon.

    Ce que signifie la fin annoncée

    Strange New Worlds est une préquelle située avant l’époque où Kirk prend le commandement de l’Enterprise. Malgré l’absence de grandes intrigues strictement sérialisées sur toute la saison, la série a souvent utilisé ses épisodes pour préparer l’histoire globale de l’univers.

    La perspective d’une fin prochaine pèse néanmoins sur l’anticipation. La saison cinq, annoncée comme la dernière, serait plus courte (six épisodes). Pour les amateurs, cela confirme une période de transition : après une nouvelle phase de production, la franchise semble entrer dans une phase plus calme, au moins temporairement.

    Pour prolonger l’expérience

    En attendant le retour de la série, certains fans choisissent de replonger dans l’univers via des rééditions et des coffrets. Par exemple, un Blu-ray de films Star Trek peut aider à retrouver l’ambiance “space opera” qui inspire Strange New Worlds. Pour compléter, un coffret Blu-ray de la série originale permet aussi de mesurer les continuités et les références évoquées par la nouvelle saison.

  • L’étape manquante entre l’engouement et le profit

    L’étape manquante entre l’engouement et le profit


    “Phase 2 : ?” La formule résume bien l’époque actuelle : les entreprises ont largement franchi l’étape technique (le “Step 1”), et les discours annoncent une transformation économique (le “Step 3”). Entre les deux, la question qui revient sans cesse reste la même : comment, concrètement, passe-t-on du prototype à un gain de valeur durable, sans écart entre promesses et résultats ?

    Du mème à la réalité : l’intervalle entre promesse et rentabilité

    Dans South Park, des gnomes présentent un “business plan” en trois phases : collecter, découvrir le “?”, puis faire du profit. Si cette blague circule depuis des années sur internet, elle a pris une nouvelle résonance avec l’IA. Le secteur semble capable de produire rapidement des systèmes performants, mais l’étape intermédiaire — celle qui transforme la capacité en pratique opérationnelle — demeure floue.

    En toile de fond, un paradoxe : l’écosystème est très motivé pour “monter” vite, tandis que les conditions nécessaires pour réussir dans un environnement réel (processus, responsabilités, conformité, formation, qualité) sont rarement au centre du récit.

    Régulation : une partie du “Step 2”, mais pas un consensus

    Côté militants et certaines organisations critiques, le “Step 2” serait avant tout un cadre de régulation. L’idée est de limiter les risques et d’aligner l’innovation sur des règles vérifiables. Toutefois, ce que devrait contenir exactement ce cadre, et qui serait en mesure de le faire appliquer, fait l’objet de débats. L’enjeu est autant politique que technique : sans mécanismes clairs, la rentabilité peut s’obtenir au prix d’externalités difficilement quantifiables.

    Le scénario optimiste : aller vite vers le “profit”, en sous-estimant l’étape intermédiaire

    Les promoteurs de l’IA, eux, mettent l’accent sur le “Step 3” : l’IA serait une solution de salut, capable de générer des gains rapides. Mais le chemin reste souvent implicite. L’objectif est présenté comme lointain ou “en cours”, tandis que les méthodes pour y parvenir varient fortement selon les acteurs.

    Autrement dit, la question n’est pas seulement de savoir si la technologie progresse. Elle est de savoir si les modèles seront capables d’assumer l’ensemble des tâches, avec la fiabilité attendue, dans des contextes où la contrainte principale n’est pas la génération de texte, mais la décision, la vérification et la responsabilité.

    Des études qui se contredisent : pourquoi le même sujet ne produit pas les mêmes conclusions

    Deux travaux récents illustrent bien l’écart entre analyses. D’un côté, des recherches mettent en avant des catégories professionnelles susceptibles d’être les plus touchées par l’automatisation liée aux modèles de langage. De l’autre, des tests centrés sur des tâches concrètes dans le travail montrent des performances encore insuffisantes pour mener la mission jusqu’au bout.

    Cette divergence s’explique notamment par la nature des hypothèses. Certains scénarios extrapolent à partir de ce que les systèmes semblent pouvoir faire, sans mesurer directement leur efficacité complète dans un environnement réel. D’autres s’appuient davantage sur des évaluations pratiques, où l’agent doit enchaîner des actions, gérer des imprévus et produire un résultat conforme à un objectif précis.

    Le point de vigilance, enfin, concerne aussi les intérêts et les angles de lecture : l’orientation d’une étude peut influencer la façon d’interpréter les résultats. Sur le terrain, les “gains” dépendent moins de la prouesse technique que de la capacité à fiabiliser les workflows.

    Ce que le débat révèle vraiment : l’IA n’est pas qu’une performance, c’est un système

    Le “Step 2” apparaît donc comme une étape de maturation : passer d’une démonstration à un dispositif qui s’intègre, qui rend des résultats auditables et qui supporte les contraintes quotidiennes (qualité, contrôle, sécurité, conformité, gestion des erreurs). Tant que ces composantes ne sont pas résolues, les discours sur la rentabilité restent difficiles à vérifier.

    La différence entre promesse et profit se joue souvent dans les marges : qui vérifie ? quelles limites ? quel niveau de responsabilité ? comment traiter les erreurs ? Sans ces réponses, l’“économie transformatrice” ressemble davantage à un pari qu’à une trajectoire maîtrisée.

    Choisir des outils : un aperçu des besoins opérationnels

    Pour les organisations qui cherchent à évaluer l’IA de manière pragmatique, l’intérêt est souvent de partir de cas d’usage et d’infrastructures capables de tracer, organiser et contrôler les échanges. Des solutions de base comme un outil de prise de notes avec fonctions IA peuvent aider à structurer les informations, documenter les décisions et rendre les résultats plus faciles à auditer. De la même façon, un logiciel de gestion de projets orienté tâches aide à tester des workflows complets, plutôt que des performances isolées.

    Au final, le débat sur le “Step 2” renvoie à une même attente : transformer la capacité technique en valeur mesurable, avec un niveau de fiabilité compatible avec le travail réel. C’est cette étape — souvent la moins médiatisée — qui déterminera, plus que les annonces, qui tirera le profit et à quel prix.

  • Joby Aviation teste pendant une semaine des vols en taxi aérien de 10 minutes entre JFK et Manhattan

    Joby Aviation teste pendant une semaine des vols en taxi aérien de 10 minutes entre JFK et Manhattan


    Joby Aviation lance une série de démonstrations d’air taxis électriques à New York, avec des vols entre JFK et Manhattan annoncés sur une durée inférieure à dix minutes. Pendant cette période, l’objectif n’est pas encore de proposer des trajets aux passagers, mais de tester l’appareil et les scénarios d’exploitation dans des conditions proches du réel.

    Des vols de démonstration, pas une mise en service commerciale

    Selon les informations communiquées par la société, la campagne s’inscrit dans un cadre de vols d’essai : les appareils ne transportent pas de clients et la priorité est donnée à la validation des routes, des procédures et de la performance dans l’espace aérien d’une grande métropole. Joby indique vouloir réaliser ces vols « dans des itinéraires réels et un environnement réel », afin d’affiner sa préparation avant d’éventuels débuts commerciaux.

    La société affirme que le premier vol point à point de son eVTOL (véhicule aérien à décollage et atterrissage vertical électrique) a été mené depuis l’aéroport John F. Kennedy vers des héliports de Lower Manhattan et Midtown, avec un temps de trajet annoncé de moins de dix minutes. Joby met aussi en avant le caractère plus silencieux de son système par rapport à certains usages d’hélicoptères, ainsi que l’absence d’émissions à l’utilisation, point central pour l’acceptabilité urbaine.

    Un jalon pour la certification et l’entrée dans le cadre réglementaire

    Joby précise toutefois que le projet dépend encore de la certification de l’aviation civile, laquelle n’est pas finalisée. La campagne de New York intervient dans le prolongement de travaux menés ailleurs, notamment des démonstrations pilotes réalisées sur la côte ouest, et vise à accélérer la préparation opérationnelle.

    Ces essais se déroulent dans un contexte réglementaire présenté comme plus favorable aux startups d’air taxis, avec un programme fédéral visant à faciliter les tests « en conditions réelles ». Dans ce cadre, les démonstrations servent à documenter la capacité de l’appareil à opérer sur des trajets et autour d’infrastructures prévues, tout en évaluant la compatibilité avec l’environnement aérien existant.

    Quand des passagers pourraient-ils monter à bord ?

    Les annonces de calendrier restent prudentes. Joby indique que la mise en service avec passagers dépend de l’avancée de la certification et de la préparation des opérations. La société évoque néanmoins une volonté de démarrer des vols commerciaux dans plusieurs États à une échéance située au second semestre 2026, ce qui placerait New York parmi les premières zones potentiellement concernées.

    En attendant, cette phase de démonstration à JFK et dans Manhattan ressemble davantage à une étape de mise au point et de crédibilisation qu’à une transition immédiate vers un service grand public. Pour les observateurs, l’enjeu sera notamment de voir comment l’entreprise gère la répétabilité des vols, la coordination au sol et la maîtrise du bruit et des trajectoires dans un espace dense.

    Ce qu’il faut surveiller pendant la campagne

    • La régularité des performances sur le trajet JFK–Manhattan, notamment la stabilité des temps de vol annoncés.
    • Les procédures d’exploitation associées aux décollages et atterrissages sur site, ainsi que la coordination avec les infrastructures existantes.
    • Les retours liés à l’intégration en environnement urbain dense (cadence, nuisances perçues, contraintes opérationnelles).

    Pour suivre l’actualité technique et comprendre les enjeux du ciel urbain, certains s’équipent aussi d’outils de cartographie et de lecture des données aériennes. Par exemple, un jumelles compactes pour observer les décollages et atterrissages peuvent compléter une veille sur les tests, sans remplacer les informations officielles. Côté protection de l’audition, beaucoup privilégient également un équipement de protection auditive lors d’ambiances sonores intenses, ce qui peut être utile pour toute personne proche des zones de démonstration.

  • Fuites d’images présumées des futures lunettes connectées de Samsung

    Fuites d’images présumées des futures lunettes connectées de Samsung


    Des images supposées de lunettes connectées de Samsung ont fuité, offrant un aperçu de ce qui pourrait être les premiers “smart glasses” du constructeur. Bien qu’il s’agisse, à ce stade, d’informations non confirmées officiellement, l’ensemble est suffisamment cohérent pour donner des repères sur la stratégie d’entrée de Samsung dans un segment encore en construction.

    Un premier modèle sans écran, mais pensé pour l’usage quotidien

    Selon les informations relayées, ces lunettes seraient développées sous le nom de code “Jinju”. Leur point marquant : elles ne seraient pas dotées d’un écran. Dans la pratique, cela suggère une expérience centrée sur la commande vocale, la recherche d’informations et des fonctions annoncées côté “assistant”, plutôt qu’une superposition visuelle en temps réel.

    On évoque une base logicielle s’appuyant sur la plateforme Android XR, ainsi qu’une intégration importante avec le chatbot Gemini de Google. L’objectif serait de proposer des interactions naturelles, en réduisant les frictions liées à l’affichage : demander, obtenir, puis continuer son activité, sans forcément détourner le regard.

    Côté tarif, les estimations circulent autour de 380 à 500 dollars. Ce positionnement, s’il se confirme, placerait le produit dans une zone de prix intermédiaire—compatible avec une première génération orientée “fonctions” plus que “réalité augmentée immersive”.

    Une seconde génération annoncée plus ambitieuse

    Toujours dans ces rumeurs, Samsung préparerait une seconde version sous le nom de code “Haean”, prévue pour introduire un écran micro-LED. L’idée serait alors de rapprocher l’expérience de celle des lunettes affichant des informations directement dans le champ de vision, sur un modèle plus proche de l’“AR” que des accessoires purement audio/assistant.

    Les prix associés à cette seconde vague seraient plus élevés, avec une fourchette évoquée de 600 à 900 dollars. Cette différence de coût s’explique généralement par la présence de composants d’affichage plus complexes, ainsi que par une intégration matérielle et logicielle plus exigeante.

    Capteurs, audio et puissance de calcul : les rumeurs se précisent

    D’autres caractéristiques seraient mentionnées pour le modèle Jinju : une caméra de 12 MP, une puce Snapdragon AR1 et un système audio avec des haut-parleurs directionnels utilisant une technologie de conduction osseuse. Ces éléments visent un usage plus “présent” au quotidien : capter l’environnement pour certaines fonctions, et fournir un son intelligible sans gêner l’écoute environnante.

    Comme toujours avec ce type de fuites, les spécifications sont susceptibles d’évoluer avant la commercialisation, notamment sur la définition exacte des fonctions, l’autonomie et l’ergonomie.

    Calendrier : un lancement probablement étalé

    Le calendrier reste incertain, mais une mise en avant “plus tard dans l’année” est jugée plausible. Samsung a l’habitude de réserver la révélation officielle de ses nouveautés à des événements planifiés, et il n’est pas impossible que les lunettes soient annoncées en premier sous forme de présentation, avant une disponibilité plus tardive.

    Dans cette logique, le lancement pourrait suivre une progression : d’abord un produit sans écran pour tester l’adoption et affiner l’écosystème, puis une version avec écran (micro-LED) pour élargir le champ des usages.

    Quel intérêt concret pour l’utilisateur ?

    Si les hypothèses actuelles se confirment, l’intérêt de Jinju serait d’apporter une interface “assistant” plus naturelle et plus portable qu’un smartphone, avec des interactions vocales et une couche informationnelle liée à Gemini. Haean, lui, viserait une expérience plus visuelle, potentiellement plus adaptée aux scénarios de travail, de navigation ou de contextes où l’affichage devient utile.

    En attendant une confirmation officielle, il reste prudent : le segment des lunettes connectées évolue vite, et les attentes du public (autonomie, poids, qualité audio, latence de l’assistant) feront la différence entre une bonne démonstration et un usage quotidien.

    Pour suivre de près l’écosystème audio en attendant, certains utilisateurs privilégient déjà des solutions orientées “son au quotidien” comme des écouteurs à conduction osseuse, utiles lorsque l’idée de filtrer moins l’audition ambiante semble séduisante. En complément, une paire de petit micro sans fil peut aussi aider à mieux exploiter les commandes vocales sur smartphone, en attendant des lunettes elles-mêmes pleinement opérationnelles.