Catégorie : Technologie

  • Le jeu Wordle du New York Times devient une émission télévisée

    Le jeu Wordle du New York Times devient une émission télévisée


    Le New York Times mise encore sur l’engouement autour de Wordle. Après le succès du jeu de lettres sur mobile, le titre va bientôt franchir une nouvelle étape en devenant une émission de divertissement diffusée à la télévision sur NBC. Cette annonce illustre la stratégie d’un groupe médias qui cherche à transformer un phénomène digital en relais durable, en s’appuyant sur de nouveaux formats et de nouvelles audiences.

    Wordle passe de l’écran au plateau

    Selon les informations communiquées, l’émission sera portée par Savannah Guthrie, animatrice de Today. Jimmy Fallon interviendra également en tant que partenaire de production, aux côtés du New York Times et de l’équipe de The Tonight Show. La série devrait commencer à être diffusée sur NBC l’année prochaine.

    Le format est présenté comme « rapide » et pensé pour être accessible en famille. C’est un contraste notable avec l’expérience mobile, où les joueurs prennent souvent le temps de réfléchir et d’analyser plusieurs possibilités à leur rythme.

    Un choix qui s’inscrit dans la stratégie du New York Times

    Le projet marque une collaboration plus directe entre le New York Times et un diffuseur télévisé sur un programme de divertissement. Au-delà du phénomène Wordle, l’enjeu pour le groupe est aussi économique : alors que les revenus de la presse imprimée continuent de reculer, le développement d’activités numériques et d’offres d’abonnement apparaît comme une priorité.

    Wordle a été lancé en octobre 2021 par Josh Wardle. L’acquisition par le New York Times, intervenue l’année suivante, a accompagné la montée en puissance du jeu au sein de l’écosystème de NYT Games. Le jeu a ensuite contribué à attirer une large base d’utilisateurs, et les chiffres d’audience mis en avant au fil du temps soulignent l’ampleur de la pratique à grande échelle.

    Des productions en cours, une émission à construire autour du jeu

    Les épisodes seraient en cours de tournage à l’été, et NBC rechercherait des participants pour constituer le casting. Le défi sera de traduire l’essence du jeu — résoudre une grille de lettres en un nombre limité d’essais — dans un format télévisé rythmé, compréhensible pour le public qui ne connaît pas nécessairement l’original.

    Pour les curieux qui souhaitent retrouver l’ambiance des mots et des énigmes, certains se tournent aussi vers des jeux de lettres analogues. Par exemple, un jeu de société basé sur les mots peut offrir une alternative conviviale à la maison, sans attendre la diffusion de l’émission. Dans la même veine, un puzzle orienté casse-tête de lettres permet de prolonger l’envie de déduction et de vocabulaire.

    Reste à voir comment Wordle sera adapté pour la télévision, et si l’approche « familiale » parviendra à conserver la logique qui a fait le succès du jeu sur mobile. Une chose est claire : le passage au format TV transforme un phénomène internet en produit média à part entière, avec l’objectif de toucher un public plus large.

  • Sony affirme que des outils d’intelligence artificielle plus efficaces favoriseront l’arrivée de davantage de jeux sur le marché

    Sony affirme que des outils d’intelligence artificielle plus efficaces favoriseront l’arrivée de davantage de jeux sur le marché



    Le marché du jeu vidéo a déjà connu une hausse spectaculaire du nombre de titres commercialisés, portée par la démocratisation des outils de développement et par la distribution numérique. Désormais, Sony estime que l’accélération pourrait encore s’accentuer grâce à des outils d’intelligence artificielle capables de réduire les frictions de création et d’optimiser certains postes de production.

    Une promesse d’efficacité, et donc plus de contenus

    Hideaki Nishino, président et directeur général de Sony Interactive Entertainment, a déclaré attendre une hausse « significative » du volume et de la diversité des contenus disponibles pour les joueurs. Selon lui, l’IA permettrait notamment de réduire les barrières à la création, de raccourcir les cycles de développement et d’ouvrir plus largement l’accès à la production de jeux, y compris pour des studios de plus petite taille.

    Cette position s’inscrit dans une logique déjà observée dans l’industrie : lorsque les outils deviennent plus accessibles et plus productifs, davantage de projets voient le jour. L’IA, ici, est présentée comme un levier supplémentaire, en particulier pour les tâches répétitives et certaines opérations techniques.

    Des usages concrets chez Sony : automatiser des étapes de production

    Sony indique que ses équipes internes utilisent déjà des outils d’IA pour automatiser des workflows répétitifs. L’entreprise cite plusieurs domaines, dont l’assurance qualité, la modélisation 3D et l’animation.

    Parmi les exemples mentionnés, un outil d’animation 3D baptisé Mockingbird permettrait de convertir plus rapidement des données de capture de mouvement en animations exploitables dans les jeux. Nishino précise toutefois que ces outils ne remplacent pas les acteurs de capture de mouvement : ils réduiraient surtout le temps nécessaire aux tâches d’animation, en ramenant des opérations longues à des délais beaucoup plus courts.

    Autre illustration : des outils d’apprentissage automatique capables de prendre des vidéos de coiffures réelles pour générer des modèles d’animation automatisés. L’objectif est de limiter le travail manuel consistant à placer et ajuster individuellement de très nombreux brins, tout en conservant un rendu réaliste.

    Vers davantage d’ambition, malgré les limites

    Hiroki Totoki, président et directeur général de Sony Group, associe cette « efficacité » à la possibilité de lancer des projets plus ambitieux, parfois freinés auparavant par des contraintes de coûts et de délais. L’idée n’est pas seulement de produire plus, mais aussi de permettre des créations difficiles à mener avec les mêmes ressources.

    Totoki évoque également un projet pilote avec Bandai Namco, centré sur la production vidéo. Le partenariat aurait mis en évidence des gains importants de vitesse et de productivité par personne. Toutefois, Sony reconnaît qu’il a fallu ajuster des modèles d’IA afin d’éviter des problèmes de cohérence et de contrôlabilité, des points qui restent sensibles dès lors que l’on veut obtenir un rendu stable et conforme aux exigences de production.

    Ce que cela pourrait changer pour l’industrie

    À court terme, le principal effet attendu est une réduction du temps de certaines étapes, ce qui peut favoriser plus de diversité dans le catalogue. À plus long terme, la réussite dépendra surtout de la capacité à intégrer ces outils sans dégrader la qualité et la fiabilité des productions, notamment sur les aspects qui exigent un haut niveau de contrôle artistique et technique.

    Pour les studios comme pour les créateurs indépendants, l’optimisation de la chaîne de production est un enjeu central. Dans cet esprit, des solutions conçues pour l’animation et la création 3D, comme un logiciel d’animation 3D ou des outils liés à la création multimédia, peuvent s’inscrire dans une démarche d’industrialisation des workflows, notamment lorsqu’ils s’intègrent à des processus plus automatisés.

    • Mockingbird et les outils analogues sont présentés comme des accélérateurs de production, pas comme des remplacements directs des talents de capture et de création.

    • Les gains de productivité semblent particulièrement marqués pour les tâches répétitives et certaines conversions de données.

    Enfin, côté matériel, disposer d’une configuration adaptée à la génération et au traitement de contenus 3D reste déterminant. Certains créateurs choisissent ainsi des solutions plus puissantes comme un ordinateur orienté rendu et création 3D afin de limiter les goulots d’étranglement, surtout quand les workflows deviennent plus automatisés mais aussi plus exigeants en calcul.

  • L’échec de la lutte de Sony contre le piratage en ligne pourrait compromettre d’autres poursuites pour violation du droit d’auteur

    L’échec de la lutte de Sony contre le piratage en ligne pourrait compromettre d’autres poursuites pour violation du droit d’auteur



    Un nouvel arrêt de la Cour suprême américaine vient de redessiner les contours de la responsabilité pour contrefaçon dans le numérique. Si la décision est saluée comme un tournant, elle suscite aussi des interrogations: la méthode employée pour établir la règle laisse, pour l’instant, une large place à l’interprétation des juridictions inférieures.

    Un raisonnement jugé trop bref

    Dans une analyse, plusieurs juristes estiment que le raisonnement de la décision pourrait manquer de transparence. L’idée n’est pas seulement d’énoncer un principe, mais aussi d’en expliciter la logique, d’anticiper ses effets et d’indiquer comment l’appliquer concrètement.

    Cette réserve rejoint une difficulté souvent rencontrée en droit: une règle formulée de manière simple peut, une fois appliquée à des situations réelles, se révéler complexe.

    Une rupture avec le test utilisé jusque-là

    Malgré ces critiques sur la forme, l’arrêt est considéré comme majeur pour l’avenir des affaires de contrefaçon. Il affecte directement la manière dont la deuxième cour d’appel (2nd Circuit) traite habituellement ces dossiers, notamment en s’éloignant d’un test auparavant dominant, issu de l’affaire Gershwin.

    Jusqu’ici, la logique reposait sur l’addition de la connaissance et de la contribution matérielle: en substance, l’idée était que des fournisseurs de services pouvaient être impliqués s’ils savaient qu’une contrefaçon se produisait sur leurs systèmes et s’ils fournissaient les moyens permettant aux actes de se réaliser.

    Deux voies désormais limitées

    La Cour suprême indique désormais que, pour les fournisseurs de services, deux fondements seulement peuvent être retenus en matière de contrefaçon contributive: l’incitation (inducing) et l’adaptation (tailoring). Autrement dit, il ne suffit plus de constater une connaissance et de constater une contribution; il faut démontrer un comportement plus ciblé.

    Cette clarification a été relevée comme déterminante, mais elle ne dissipe pas toutes les zones grises. En particulier, il reste délicat de définir avec précision ce qui relève exactement de l’“intention” nécessaire pour caractériser l’incitation, ou de ce qui constitue une adaptation du service au profit des usages contrefaisants.

    Une qualification encore difficile à appliquer

    Selon les observations faites par des praticiens, la nouvelle approche impose aux plaignants de démontrer que le fournisseur a fait quelque chose de positif pour orienter son service de manière à mieux répondre aux besoins des contrefacteurs. Dans le raisonnement actuel, la simple commercialisation du même service à tous les clients n’aurait pas, en soi, vocation à suffire.

    Pour autant, faute de lignes directrices supplémentaires, la frontière entre une activité neutre et une adaptation juridiquement significative demeure incertaine.

    • Les demandeurs pourraient tenter de préciser, au cas par cas, dans quelles circonstances le fait de continuer à servir des clients impliqués dans la contrefaçon pourrait être interprété comme une forme d’incitation ou d’adaptation.
    • Les tribunaux devront ensuite apprécier si les actions alléguées vont au-delà de la fourniture ordinaire d’un service.

    En attendant que les décisions à venir apportent des précisions, cette évolution devrait influencer la stratégie des parties: les dossiers devront être construits autour d’éléments concrets permettant de relier le comportement du fournisseur à l’incitation ou à l’adaptation visée par la Cour. Dans ce contexte, des outils de suivi et d’analyse de contenus peuvent servir à documenter des incidents et des schémas d’usage, par exemple via un logiciel de filtrage et d’analyse de contenu ou une solution de journalisation et de supervision réseau lorsqu’elle est utilisée dans le cadre d’une politique de conformité et non pour contourner la loi.

  • Les plus grands fabricants coréens soutiennent Config : le TSMC des données robotiques

    Les plus grands fabricants coréens soutiennent Config : le TSMC des données robotiques


    L’essor de l’« intelligence artificielle physique » en Asie s’appuie sur une force souvent sous-estimée : la capacité industrielle de la région. En Corée du Sud, au Japon, en Chine et à Taïwan, la production, l’export et des chaînes d’approvisionnement fortement optimisées ont longtemps structuré l’économie. Aujourd’hui, cette logique industrielle influence directement la manière dont l’IA est développée et financée—notamment dans la robotique, où les données ne se résument pas à des textes ou des images.

    C’est dans ce contexte qu’un acteur coréen, Config, a attiré l’attention des capital-risqueurs liés à certains des plus grands industriels du pays. La start-up, basée à Séoul et à San Jose, construit une « couche de données » destinée aux modèles de fondation pour la robotique, un segment où l’accès à des données fiables et exploitables conditionne la performance des systèmes.

    Pourquoi la robotique exige des données différentes

    La formation de grands modèles de langage repose surtout sur des ressources disponibles à grande échelle : des volumes massifs de texte existent déjà. En revanche, apprendre à un robot à agir dans le monde réel représente un défi distinct. Chaque séquence d’entraînement doit être collectée dans un cadre physique : robot, installations, et opérateurs nécessaires pour exécuter les tâches. Dans ce modèle, les coûts de développement peuvent grimper rapidement lorsque les entreprises cherchent des robots toujours plus capables.

    Config part donc d’un principe central : améliorer la qualité et l’adaptation des données plutôt que considérer que le modèle « s’ajustera » tout seul. L’entreprise vise à fournir ce que les équipes robotique doivent exploiter pour entraîner leurs systèmes, en particulier lorsque les robots n’évoluent pas dans le même environnement ni selon les mêmes modalités que les données brutes utilisées pour l’apprentissage.

    Un modèle « à la TSMC » pour la robotique

    L’ambition de Config s’exprime par une analogie fréquente dans l’industrie : celle de la fabrication sans concurrence directe. Comme un fondeur de semi-conducteurs produit pour plusieurs clients sans viser à remplacer leurs produits finaux, Config cherche à jouer un rôle d’infrastructure pour les intelligences artificielles de robotique.

    L’idée trouve un terrain favorable : de nombreux grands industriels envisagent de développer une partie de leur « robot AI » en interne, afin de réduire leur dépendance à des fournisseurs externes et de mieux maîtriser leurs résultats. Dans cette dynamique, la capacité à fournir des données prêtes à l’emploi devient un avantage stratégique.

    Un tour de table porté par de grands acteurs

    Config a annoncé avoir bouclé un tour de financement de 27 millions de dollars mené par Samsung Venture Investment, pour une valorisation supérieure à 200 millions de dollars. Le tour a également été soutenu par des entités liées à Hyundai Motor, LG, et à un acteur télécom sud-coréen via sa branche d’investissement.

    Au-delà des investisseurs, l’enjeu est aussi opérationnel : Config dit déjà produire des données et générer des revenus. Ses clients actuels incluraient des industriels, des intégrateurs et des acteurs opérant dans des secteurs tels que l’agriculture ou la défense—des domaines où la robotique et l’automatisation peuvent avoir des contraintes fortes en termes de fiabilité et d’adaptation aux tâches réelles.

    La collecte de données et la « conversion » avant l’entraînement

    Config collecte des données issues de mouvements humains, dans des environnements contrôlés (studios) et sur le terrain. L’entreprise indique disposer d’une force de travail d’environ 300 personnes réparties sur plusieurs sites, et accumuler un volume important de données de mouvement. Une donnée clé est sa façon d’aborder l’étape d’entraînement : plutôt que de se contenter d’utiliser les données brutes, Config s’attache à transformer ces données afin qu’elles reflètent mieux la manière dont les robots se déplacent et interagissent avec le monde.

    Le principe peut être résumé comme une logique de « traduction » : entraîner un modèle sur un type de données puis l’attendre à fonctionner directement dans un autre contexte revient, selon l’entreprise, à demander au modèle d’acquérir par lui-même une adaptation que les données devraient déjà porter.

    Quels objectifs pour les prochains mois ?

    Le financement annoncé doit soutenir trois priorités. D’abord, intensifier la collecte de données afin d’atteindre un objectif d’un million d’heures produites. Ensuite, renforcer une offre « entreprise » autour d’une plateforme, avec un objectif de revenus récurrents d’ici 2027. Enfin, Config prévoit de lancer un service basé sur le cloud de type « Robot-as-a-Service », permettant à des entreprises d’utiliser ses modèles sans forcément déployer toute l’infrastructure sur site.

    Ce que l’on peut retenir pour l’écosystème robotique

    Le pari de Config illustre une tendance plus large : l’IA appliquée au monde réel avance souvent par couches d’infrastructure, là où l’on ne peut pas simplement réutiliser des modèles entraînés sur des données « faciles ». Pour les grands industriels, investir dans la donnée réduit un risque majeur : celui de construire des systèmes coûteux sur des corpus insuffisamment adaptés à la réalité des robots. Pour les équipes robotique, disposer d’un pipeline de données mieux structuré peut accélérer les itérations, et potentiellement diminuer une partie des coûts liés à l’apprentissage.

    Dans la pratique, l’écart de maturité entre robots et logiciels d’IA « classiques » se joue souvent sur l’accès à la donnée et sur sa préparation. À ce titre, le positionnement de Config s’inscrit dans une stratégie où l’avantage compétitif ne réside pas uniquement dans le modèle, mais dans la capacité à livrer des données exploitables.

    Deux pistes d’équipement à considérer

    Pour des équipes qui testent des approches IA et robotique, le choix du matériel influence la qualité des mesures et des itérations. Selon les besoins, un kit de capteurs ou un contrôleur adapté peut faire la différence dans les premiers prototypes, par exemple via un kit de développement pour robotique ou un système de caméra pour robots.

  • CUDA prouve que Nvidia est avant tout une entreprise logicielle

    CUDA prouve que Nvidia est avant tout une entreprise logicielle


    Pardon pour le cliché : en finance, on parle souvent de « moat », soit une barrière de protection qui permet à une entreprise de conserver un avantage durable. Dans le vocabulaire tech, le terme est revenu en force avec une question simple : les grands acteurs de l’intelligence artificielle disposent-ils d’un avantage réellement difficile à reproduire ? À l’échelle des « labs » de pointe, la réponse ressemble davantage à un terrain de course qu’à une forteresse intangible. En revanche, Nvidia présente un élément que beaucoup considèrent comme structurant : sa technologie CUDA.

    Le débat autour des « moats » s’est ravivé avec la progression des modèles open source, qui n’ont pas, jusqu’ici, remplacé massivement les solutions propriétaires des principaux acteurs de la recherche appliquée. Malgré des épisodes de stress lors de l’arrivée de certains modèles open source, l’écart de performance ne s’est pas transformé en basculement général. Dans ce contexte, Nvidia met en avant un avantage moins visible que le hardware, mais central pour l’exécution des charges de calcul IA : CUDA.

    CUDA : une « plateforme » pensée pour la performance parallèle

    CUDA signifie Compute Unified Device Architecture. Le nom évoque davantage une formule technique qu’un produit grand public, et il est généralement employé tel quel. Son intérêt principal tient à une idée clé : l’exécution efficace en parallèle. Pour entraîner ou exécuter des modèles, il faut traiter de très nombreuses opérations de calcul simultanément et réduire au maximum les pertes de temps à chaque étape.

    Un exemple simple permet d’en saisir le principe : une table de multiplication 9×9 contient 81 opérations. Sur une machine à un seul cœur, elles s’effectuent séquentiellement. Sur une architecture GPU disposant de cœurs multiples, le calcul peut être réparti par colonnes, ce qui accélère fortement l’exécution. Dans certains cas, des optimisations supplémentaires (comme l’exploitation de la symétrie d’une opération) réduisent encore le nombre d’actions nécessaires. À l’échelle d’un entraînement à très grande échelle, ces gains deviennent déterminants.

    De la 3D aux calculs IA : pourquoi CUDA compte

    Historiquement, les GPU étaient associés à la génération d’images et de graphismes pour les jeux vidéo. Puis des chercheurs ont compris que la même architecture pouvait servir à des calculs haute performance. CUDA s’est progressivement imposé comme la couche logicielle qui facilite l’exploitation de ces capacités par les développeurs, en particulier pour les charges liées à l’apprentissage automatique.

    Il ne s’agit pas uniquement d’un « langage » au sens strict, mais d’un ensemble de composants et de bibliothèques destinés à accélérer des opérations récurrentes en IA. Ces optimisations jouent le rôle de raccourcis techniques : elles permettent de gagner de petites quantités de temps sur des opérations élémentaires, qui, additionnées, peuvent représenter une différence notable en production.

    L’avantage ne se résume pas au matériel

    Un GPU moderne n’est pas qu’un assemblage de puces : il s’appuie sur des mécanismes d’accès mémoire, des unités spécialisées (dont des « tensor cores » pour certains calculs) et des capacités d’exécution distribuée. Dans cette logique, le matériel fournit la puissance ; CUDA aide à l’orchestrer, en répartissant le travail et en réduisant les inefficacités.

    Cette différence éclaire pourquoi certains projets cherchent à aller plus près de l’exécution interne. Quand des équipes écrivent du code à un niveau très bas pour mieux contrôler la chaîne d’instructions, elles réduisent les marges laissées par des couches plus générales. Ce choix peut contribuer à gagner en efficacité sur des opérations spécifiques.

    En pratique, pour travailler et tester ces environnements, l’accès à une machine avec une configuration GPU robuste reste un prérequis. Par exemple, un PC équipé d’une carte graphique Nvidia haut de gamme peut être pertinent pour exécuter des charges CUDA dans des conditions proches de celles utilisées en développement et en expérimentation. De même, pour des environnements de calcul plus centrés sur l’accélération, un kit de développement Jetson peut convenir à des cas d’usage embarqués et à des prototypes orientés IA.

    Ce que cela signifie pour le « moat » de Nvidia

    Dire que CUDA constitue un avantage compétitif revient à observer la réalité du terrain : dans l’écosystème IA, l’efficacité dépend fortement de la manière dont les calculs sont mappés sur l’architecture GPU. Si CUDA devient la référence de facto pour exploiter ces capacités, il peut rendre plus coûteux le changement de plateforme, surtout pour des équipes qui doivent préserver des délais et des performances.

    À l’inverse, rien n’empêche l’émergence d’outils concurrents ou de stratégies alternatives. Mais pour l’instant, l’idée centrale reste la même : dans une industrie où la performance dépend de chaque micro-optimisation, une plateforme logicielle qui sait tirer le meilleur du parallélisme constitue un avantage difficile à ignorer.

  • Dua Lipa poursuit Samsung en justice pour 15 millions de dollars

    Dua Lipa poursuit Samsung en justice pour 15 millions de dollars


    La chanteuse Dua Lipa a engagé une action en justice contre Samsung, reprochant au groupe d’avoir utilisé son visage pour commercialiser des téléviseurs, sans autorisation ni compensation. La demande, d’un montant annoncé à 15 millions de dollars, s’appuie sur plusieurs griefs liés au droit d’auteur et à l’atteinte présumée à des droits de propriété intellectuelle.

    Une image du visage utilisée sur des emballages

    Selon la plainte, Samsung aurait employé une photo du visage de Dua Lipa sur des boîtes en carton destinées à promouvoir certains modèles de téléviseurs. La star affirme avoir découvert l’usage de son image autour de juin 2025, puis avoir demandé à plusieurs reprises l’arrêt de la commercialisation de contenus la mettant en scène sur ces emballages.

    La procédure indique que les échanges avec Samsung n’auraient pas abouti, et que les produits concernés seraient encore vendus. Les avocats de Dua Lipa soutiennent que cette utilisation aurait généré des bénéfices pour l’entreprise, tout en donnant au public l’impression que l’artiste approuvait la gamme de produits.

    Copyright, marque et exploitation commerciale non autorisée

    Au-delà de l’argument central autour de l’image, la plainte évoque des atteintes potentielles au droit d’auteur, ainsi qu’à des droits liés à la propriété intellectuelle, notamment pour ce qui est de l’usage jugé « non autorisé » à des fins commerciales. Les termes employés visent également l’idée d’une exploitation sans consentement susceptible d’affecter le contrôle et la monétisation de l’image de l’artiste.

    Le dossier avance aussi que le cliché utilisé appartiendrait à Dua Lipa, la photo ayant été réalisée lors du festival Austin City Limits en 2024.

    Un contexte juridique déjà chargé autour des téléviseurs

    Cette affaire s’inscrit dans un climat plus large où certains fabricants de téléviseurs ont été confrontés à des procédures judiciaires. Dans le passé, des tensions juridiques ont notamment concerné des pratiques publicitaires et des questions liées à la collecte ou à l’usage de données. Même si ce litige-ci porte sur des emballages promotionnels, il illustre la vigilance accrue autour de la conformité des contenus marketing.

    Samsung n’a, à ce stade, pas donné de réponse dans le cadre rapporté, la position de l’entreprise n’étant pas encore présentée dans les éléments fournis.

    Ce que cette affaire peut changer pour le marketing produit

    Au-delà du cas de Dua Lipa, l’enjeu porte sur la manière dont les marques emploient l’image d’artistes, influenceurs ou personnalités dans leurs campagnes et supports de vente. En pratique, ce type de procédure peut encourager les entreprises à renforcer leurs vérifications en amont : droits liés aux visuels, permissions d’exploitation, cadre contractuel et cohérence entre l’emballage et l’existence d’une approbation réelle.

    Pour les consommateurs, le litige rappelle aussi que la présence d’un visage sur un produit peut relever d’une logique promotionnelle susceptible d’être contestée si elle n’est pas autorisée.

  • Uber a toujours voulu aller au-delà du simple trajet ; désormais, elle a une raison de se dépêcher

    Uber a toujours voulu aller au-delà du simple trajet ; désormais, elle a une raison de se dépêcher


    Pendant des années, Uber a répété vouloir dépasser le simple service de réservation de trajets. Avec l’arrivée de concurrents et l’accélération des initiatives autour des services numériques, la stratégie s’intensifie : l’entreprise mise davantage sur son application comme point d’entrée unique, capable d’englober des activités variées, dont l’hôtellerie.

    Aux États-Unis, Uber vient ainsi de franchir un cap concret en intégrant la réservation d’hôtels directement dans l’application. Cette extension s’inscrit dans une logique plus large de “super app”, où l’abonnement et la continuité d’usage doivent donner aux utilisateurs une raison de rester.

    Uber accélère avec la réservation d’hôtels

    Lors d’un événement produit aux États-Unis, Uber a annoncé que les utilisateurs peuvent désormais réserver des hôtels depuis l’application, via un partenariat avec Expedia Group. L’offre donne accès à un catalogue de plus de 700 000 établissements dans le monde.

    Les membres du programme d’abonnement Uber One, facturé 9,99 dollars par mois, bénéficient d’avantages spécifiques : 20 % de réduction sur une sélection renouvelée de 10 000 hôtels et 10 % de crédits. Uber indique aussi que des locations de courte durée via Vrbo devraient être ajoutées plus tard dans l’année, et que des réservations de restaurants via OpenTable suivront.

    En parallèle, une fonctionnalité baptisée “Shop for Me” permettrait de commander des produits auprès de magasins, même lorsque ceux-ci ne sont pas référencés dans l’écosystème habituel de l’application.

    Le modèle repose sur l’abonnement et la continuité d’usage

    Uber cherche à résoudre une difficulté classique des “super apps” : rassembler plusieurs services dans une même interface ne suffit pas si l’utilisateur a déjà ses habitudes sur d’autres plateformes. La réponse d’Uber, d’après les explications fournies par son équipe dirigeante technique, repose sur la valeur offerte par l’abonnement.

    Chaque nouvelle catégorie ajoutée — livraison, courses, désormais hôtels — doit renforcer le sentiment que l’abonnement “vaut le coup”, en créant un parcours d’usage fluide. L’objectif est de rendre le passage d’un service à l’autre plus simple et, surtout, plus pertinent que l’utilisation d’applications séparées.

    Uber évoque également d’autres pistes, sans calendrier clair : la réservation de vols n’est pas exclue, et des services financiers pourraient être envisagés, dans la continuité de certaines offres déjà déployées sur d’autres marchés.

    Une stratégie dans un contexte concurrentiel plus large

    Uber n’évolue pas dans un vide concurrentiel. Airbnb, de son côté, a annoncé des projets liés au transport vers les aéroports, avec l’ambition de conserver l’utilisateur dans son propre environnement. Plus largement, l’idée de “tout-en-un” progresse aussi dans d’autres écosystèmes : certains acteurs cherchent à intégrer paiements et services dans des applications sociales ou de réservation.

    La question centrale pour le marché américain reste toutefois la même : combien de “super apps” peuvent réellement coexister, alors que les utilisateurs disposent déjà d’applications spécialisées pour une grande partie de leurs besoins ? Pour qu’une consolidation fonctionne, il faut soit un avantage clair (tarification, récompenses, accès), soit une expérience suffisamment homogène pour réduire la friction du changement.

    La force d’Uber One et le poids d’Uber Eats

    Uber avance l’idée que sa base d’utilisateurs existante constitue un avantage structurel. Les paiements, la fréquence d’usage et le fait que les utilisateurs ont déjà fourni une carte bancaire réduisent l’effort nécessaire pour tenter de nouveaux parcours — par exemple réserver un hôtel ou passer commande auprès d’un commerçant moins visible.

    Les résultats récents mentionnés par l’entreprise mettent aussi en avant Uber Eats comme levier de croissance. Les chiffres communiqués indiquent une progression importante des revenus liés à la livraison, ce qui renforce l’hypothèse qu’un service à forte demande peut servir de point d’ancrage pour étendre l’application vers d’autres usages.

    Même si la confiance des investisseurs reste nuancée, Uber affirme que l’abonnement Uber One compte désormais des dizaines de millions d’adhérents et représente une part significative de l’activité. Dans ce contexte, l’ajout de l’hôtellerie apparaît comme une étape logique pour transformer un volume d’utilisateurs en fréquence et en dépenses plus diversifiées.

    Ce que cela change pour l’utilisateur

    En pratique, l’intégration d’hôtels dans l’application vise à réduire le passage entre plusieurs plateformes. Si la promesse d’un parcours “de bout en bout” se confirme, l’utilisateur pourrait réserver ses déplacements, organiser sa destination et compléter son séjour depuis un même point d’accès.

    • Le premier bénéfice attendu concerne la simplicité : recherche, réservation et gestion depuis une même interface.

    • Le second concerne l’incitation : remises et crédits réservés aux membres, censés rendre l’abonnement plus attractif.

    • Enfin, l’élargissement des offres (restaurants, locations) cherche à augmenter le nombre de situations où l’application devient nécessaire.

    Pour celles et ceux qui cherchent à comparer des options d’hébergement ou à gérer leurs trajets, un bagage cabine pratique peut aussi faire partie des préparatifs avant un séjour, surtout lorsque les réservations se font plus souvent en ligne et de manière plus flexible.

    Et pour optimiser le confort pendant les déplacements, un chargeur portable USB-C reste un accessoire couramment utile lorsque l’on doit garder son téléphone opérationnel pour la réservation et la navigation.

  • Bientôt, Whoop proposera des consultations vidéo intégrées avec des cliniciens agréés

    Bientôt, Whoop proposera des consultations vidéo intégrées avec des cliniciens agréés


    Whoop prépare l’arrivée de nouvelles fonctionnalités liées à la santé sur son application. À partir de cet été, les utilisateurs américains devraient pouvoir accéder à des consultations vidéo à la demande avec des cliniciens agréés, directement depuis l’interface du bracelet. L’entreprise annonce aussi l’intégration de la synchronisation avec les dossiers médicaux électroniques (EHR), afin de faciliter l’accès à l’historique médical lors des échanges.

    Des consultations vidéo intégrées à l’application

    La plateforme prévoit des rendez-vous en visioconférence pilotés depuis le suivi fitness. Whoop indique que ces consultations visent une approche plus continue que les prises en charge classiques « par épisodes ». L’idée est d’appuyer l’échange sur des données accumulées au fil des mois, et, lorsqu’elles sont disponibles, sur des éléments complémentaires comme des analyses sanguines et des informations issues du dossier médical.

    À ce stade, l’entreprise ne communique pas le prix de ce service. Les modalités exactes d’accès, la fréquence des consultations et les conditions de participation n’ont pas non plus été détaillées.

    Synchronisation EHR : un accès plus fluide aux antécédents

    En parallèle, Whoop annonce la prise en charge de la synchronisation avec les Electronic Health Records (EHR). Concrètement, l’objectif est de permettre aux membres et aux cliniciens connectés de récupérer plus facilement certains éléments du parcours médical, afin d’éviter de recommencer systématiquement le même travail de collecte d’informations.

    Cette brique vise à réduire la friction entre données de santé issues d’un dispositif portable et informations médicales centralisées, un point souvent délicat dans les solutions mêlant suivi au quotidien et accompagnement clinique.

    Fonctions d’IA : contexte personnalisé et recommandations proactives

    Whoop présente également deux nouveautés basées sur l’intelligence artificielle. La première, My Memory, permettrait aux utilisateurs de personnaliser le « contexte personnel » pris en compte dans l’accompagnement et le coaching. La seconde, Proactive Check-Ins, proposerait des recommandations sur l’entraînement et la récupération en fonction d’éléments liés à la vie de l’utilisateur, tels que rapportés ou déduits par la plateforme.

    Ces annonces s’inscrivent dans une tendance plus large du secteur : intégrer davantage de traitement de données et de logique prédictive au sein des applications de bien-être, tout en cherchant à rapprocher l’usage « grand public » de la sphère clinique.

    Enjeux et points à surveiller

    Cette évolution soulève plusieurs questions pratiques. Le volet consultations dépendra notamment de la couverture réelle des cliniciens, des exigences d’éligibilité et de la manière dont les données issues du wearable seront interprétées dans un contexte médical. La synchronisation EHR devra aussi respecter des standards de sécurité et de confidentialité, et offrir des contrôles clairs aux utilisateurs.

    Enfin, comme le coût n’a pas encore été précisé, l’intérêt pour le public dépendra du niveau de service proposé en contrepartie, comparé aux alternatives existantes en téléconsultation.

    Pour compléter le suivi au quotidien

    Pour celles et ceux qui envisagent de renforcer leur routine de santé et de récupération, certains accessoires peuvent s’avérer utiles. Par exemple, un tensiomètre connecté peut aider à suivre la tension à domicile avec plus de constance, comme via un tensiomètre connecté. De même, un pèse-personne ou un analyseur de composition corporelle peut fournir des repères réguliers, à l’image de balances d’analyse par impédancemétrie.

  • L’éboulement colossal a déclenché un tsunami de 500 mètres dans une grande zone touristique

    L’éboulement colossal a déclenché un tsunami de 500 mètres dans une grande zone touristique



    Un glissement massif de terrain a frappé un fjord, déplaçant environ 63,5 millions de mètres cubes de roche. Le choc a libéré une énergie suffisamment importante pour être détectée par des capteurs sismiques répartis à travers le monde, avec une intensité comparable à un séisme de magnitude 5,4. Dans le fjord, l’eau s’est mise à osciller comme dans une cuvette, formant une onde stationnaire (seiche) dont les relevés ont persisté pendant plus d’une journée.

    Des signaux mesurés à l’échelle mondiale

    La chute de la masse rocheuse a généré des ondes sismiques qui se sont propagées autour de la planète. Parallèlement, le mouvement de l’eau à l’intérieur du fjord a produit une oscillation de longue période, dont la durée a été estimée à environ 66 secondes. Cette seiche a ensuite continué à se répercuter pendant environ 36 heures, avant de s’atténuer.

    Un risque accentué par la fréquentation touristique

    Tracy Arm fait partie des zones les plus visitées de la région en été. Les navires y circulent régulièrement, avec en moyenne plus de vingt bateaux chaque jour, dont plusieurs grands navires de croisière. D’après les observations disponibles, la configuration des horaires a joué un rôle décisif : si l’événement s’était produit quelques heures plus tard, au cœur de la journée touristique, ses conséquences auraient pu être bien plus graves.

    Des témoignages locaux dans plusieurs zones

    Les premiers effets ont été observés tôt, y compris par des personnes présentes à proximité. Sur une île située à environ 55 kilomètres, des kayakistes ont constaté un écoulement rapide de l’eau environ vingt minutes après le glissement, avec des dégâts matériels. Plus près, dans une baie voisine, des observateurs à bord d’un petit bateau à moteur ont décrit l’arrivée de vagues successives, d’abord une montée d’environ 2 à 2,5 mètres près du rivage, suivie d’une seconde vague plus faible.

    À une distance plus grande, autour de 85 kilomètres, l’épisode a aussi été ressenti : l’eau s’est déversée sur un banc de sable proche, provoquant un déplacement temporaire du navire. Les récits indiquent que la perturbation a duré jusqu’en début d’après-midi, avant de laisser l’embarcation échouée lorsque la marée a reculé.

    Pourquoi certaines embarcations ont été moins touchées

    À l’entrée du fjord, un navire de croisière transportant environ 150 personnes était à l’ancre par temps brumeux. Les conditions de navigation observées incluaient des courants, de l’eau blanchie et la présence de glace ou de débris sur les bordures du fjord. Selon l’analyse rapportée, la configuration du fond marin près de l’embouchure, peu profond et accidenté, aurait joué un rôle d’amortisseur en réduisant l’énergie des vagues. Dans ce cas précis, les passagers n’auraient pas été blessés.

    Enjeux pour la sécurité en zones de fjords

    Ce type d’événement illustre la capacité de certains effondrements sous-marins ou côtiers à générer des perturbations à la fois rapides et étendues, y compris loin du point d’origine. Pour les zones touristiques, la question centrale reste la capacité à anticiper : surveillance du risque, compréhension de la dynamique locale du fjord et procédures adaptées pour les navires en situation critique.

    Dans une logique de préparation, des équipements comme une balise GPS de secours par satellite peuvent aider les équipes en mer à communiquer en cas de situation imprévue. Pour les activités proches des rivages, un gilet de flottabilité gonflable reste un élément essentiel de sécurité, notamment lorsque les conditions hydrodynamiques peuvent évoluer rapidement.

  • Est-ce que votre ARN ressemble à celui de votre père ?

    Est-ce que votre ARN ressemble à celui de votre père ?



    Dans une étude menée sur des souris, des chercheurs observent que des capacités physiques pourraient se transmettre d’une génération à l’autre. Des petits nés de pères ayant beaucoup couru affichent en effet de meilleures performances, sans avoir reçu eux-mêmes d’entraînement spécifique.

    En laboratoire, des souris sélectionnées pour constituer un groupe « contrôle » n’ont reçu aucun programme sportif particulier. Pourtant, leurs congénères, issus de pères ayant pratiqué une course régulière avant la conception, semblent mieux endurantes dès la naissance. Les résultats renforcent l’idée que l’activité physique pourrait laisser des traces biologiques capables d’influencer aussi la descendance.

    Des performances chez les descendants, malgré l’absence d’entraînement

    Les jeunes souris sont placées sur un tapis roulant miniature, où la vitesse augmente progressivement. Les chercheurs constatent que les animaux issus d’un père « actif » courent plus longtemps que les souris du groupe contrôle, avec une accumulation de lactate plus faible — un indicateur souvent associé à une meilleure tolérance à l’effort.

    Le point central est que ces différences ne proviennent pas d’un entraînement des jeunes. Elles émergent sans intervention supplémentaire après la naissance, ce qui suggère un effet précoce lié au père.

    Un signal avant la conception : l’hypothèse d’un impact sur l’ARN

    Les auteurs avancent que le mode de vie du père avant la reproduction pourrait modifier des molécules impliquées dans la régulation biologique. L’étude s’intéresse notamment à l’ARN paternel : l’activité physique pourrait induire des changements qui ne restent pas confinés au corps du coureur, mais affecteraient aussi le développement des embryons via des mécanismes de communication intergénérationnelle.

    Autrement dit, l’amélioration de la condition physique ne serait pas uniquement « programmée » par l’héritage génétique classique, mais aussi par des modifications moléculaires susceptibles de moduler l’expression de certains gènes chez la génération suivante.

    Ce que l’on peut conclure, et les limites

    Pour l’instant, la portée de ce type de résultats reste surtout démontrée chez l’animal. Même si l’idée d’un effet transmis par l’activité physique est séduisante, il serait prudent d’éviter toute extrapolation directe vers l’humain. Le rythme, l’intensité, les périodes exactes avant la conception et la nature des mécanismes biologiques pourraient différer.

    Ces travaux contribuent néanmoins à déplacer le regard : l’hérédité ne se résume pas toujours aux seules mutations génétiques. Elle peut aussi inclure des variations moléculaires influencées par l’environnement, y compris des facteurs liés à la physiologie.

    Quelles pistes pour la suite ?

    Les questions qui restent ouvertes sont nombreuses : quels composants de l’ARN sont impliqués, comment ils interagissent avec le développement embryonnaire, et dans quelle mesure ces mécanismes se traduisent par des bénéfices durables ? Les études futures devront préciser le lien causal entre exercice, signatures moléculaires et phénotypes observés chez la descendance.

    En attendant, la recherche alimente un débat scientifique plus large sur le rôle potentiel de l’activité physique non seulement pour la santé du pratiquant, mais aussi, indirectement, pour celle de sa descendance.

    Pour mesurer et suivre un effort de façon pragmatique au quotidien, beaucoup s’appuient sur des outils de suivi simples, à l’image de montres sport avec capteur cardiaque, utiles pour documenter l’intensité des séances et mieux comparer les périodes d’entraînement.

    Sur le plan de la mobilité et de la récupération, un rouleau de massage (foam roller) peut aussi aider à structurer une routine de récupération, même si cela ne préjuge pas des effets intergénérationnels recherchés par les chercheurs.