Catégorie : Technologie

  • Pourquoi l’interconnexion optique est cruciale : ce que l’introduction de Lightelligence à 10 milliards de dollars révèle pour l’IA

    Pourquoi l’interconnexion optique est cruciale : ce que l’introduction de Lightelligence à 10 milliards de dollars révèle pour l’IA


    La cotation d’une entreprise sur le point de franchir le seuil des 10 milliards de dollars de valorisation ne passe jamais inaperçue. Dans le cas de Lightelligence, les investisseurs semblent avoir déjà intégré une réponse à une question que ses résultats financiers n’apportent pas encore clairement : pourquoi l’interconnexion optique devient-elle un sujet stratégique pour l’IA ?

    Alors que la société affiche des revenus en forte croissance mais aussi des pertes nettement plus rapides, la dynamique boursière suggère que le marché parie sur une rupture technologique appelée à limiter les goulots d’étranglement actuels entre puces de calcul.

    Pourquoi l’interconnexion optique intéresse l’IA

    Les grands modèles d’IA reposent sur des clusters de processeurs fonctionnant en parallèle. La performance globale dépend fortement de la capacité à échanger des données entre ces puces : plus le transfert est rapide et efficace, plus l’exécution est optimisée.

    Or, dans les architectures actuelles, ces échanges passent majoritairement par des liaisons électriques en cuivre. À mesure que les systèmes s’agrandissent et consomment davantage, ces liaisons atteignent leurs limites : elles génèrent de la chaleur, demandent une énergie importante et plafonnent sur la bande passante sur de courtes distances.

    L’interconnexion optique consiste à remplacer ces signaux électriques par des signaux lumineux. À la manière d’un passage d’une route à une autoroute, l’objectif est d’augmenter la capacité, de réduire la latence et d’améliorer l’efficacité énergétique.

    Ce que fait Lightelligence : interconnexion et calcul optique

    Lightelligence se positionne sur deux axes complémentaires. D’une part, l’interconnexion optique vise à relier des unités de calcul au sein d’un serveur ou sur plusieurs serveurs dans un cluster. D’autre part, l’entreprise développe aussi des solutions de calcul optique, où certaines opérations seraient réalisées à l’aide de photons plutôt que d’électrons.

    Son produit le plus mis en avant, LightSphere X, est présenté comme une solution de commutation optique distribuée adaptée aux interconnexions de GPU à l’échelle des super-nœuds. L’entreprise affirme que cette approche peut améliorer l’utilisation des performances de calcul (FLOPS) et réduire le coût total de possession des charges de travail liées à l’IA.

    Un marché où l’exécution compte autant que la technologie

    Dans ce secteur, l’écart entre recherche et déploiement industriel reste un point clé. Les acteurs qui parviennent à passer au stade commercial peuvent attirer l’attention des clients hyperscalers et des intégrateurs de datacenters.

    Lightelligence met en avant une capacité à atteindre, selon certaines analyses, un déploiement à grande échelle sur un segment où beaucoup d’initiatives demeurent encore expérimentales. La société revendique aussi un portefeuille de brevets substantiel couvrant plusieurs aspects de ses deux activités.

    En parallèle, le paysage concurrentiel reste dominé par de grands groupes, avec une place importante pour les fournisseurs nationaux. Lightelligence apparaît comme un acteur majeur parmi les fournisseurs indépendants, tout en faisant face à des positions dominantes sur le marché global.

    Des comptes encore fragiles, mais un pari sur l’adoption

    Les chiffres financiers rendent l’histoire plus nuancée. Les revenus progressent rapidement d’une année à l’autre, mais l’entreprise enregistre aussi des pertes qui se creusent, ce qui est souvent le cas des sociétés technologiques en phase d’industrialisation.

    Son endettement relatif et sa concentration client constituent également des points à surveiller : lorsqu’un segment dépend fortement de quelques acheteurs, la trajectoire commerciale peut fluctuer. De plus, la vitesse de croissance des pertes par rapport aux revenus traduit la difficulté à atteindre l’équilibre au rythme attendu.

    Cependant, le marché semble valoriser plus que des revenus actuels. L’entreprise bénéficie notamment d’un capital scientifique et d’une histoire de recherche associée à l’optique appliquée à l’apprentissage profond, un socle qui soutient la crédibilité de sa feuille de route.

    À ce stade, la valorisation élevée au moment de l’introduction en bourse peut s’interpréter comme un “pari” : celui de voir l’interconnexion optique franchir plus vite les prochaines étapes d’adoption, au-delà des prototypes, et devenir un élément central des architectures d’IA de nouvelle génération.

    Ce que l’observateur doit suivre après la cotation

    • La capacité à convertir la croissance commerciale en amélioration progressive de la rentabilité.

    • La diversification de la base clients afin de réduire le risque lié à la concentration.

    • Le passage à l’échelle : volumes, intégration dans des clusters GPU, et répétabilité des déploiements chez des clients clés.

    Repères utiles pour comprendre l’écosystème

    Pour saisir l’enjeu, il est utile de garder en tête que la majorité des datacenters s’appuie sur des systèmes d’interconnexion sophistiqués où chaque gain de latence, de bande passante ou d’efficacité peut se traduire par des économies d’exploitation. Dans cette logique, des solutions de rack et de gestion thermique peuvent devenir déterminantes pour accompagner des architectures plus exigeantes. Par exemple, un capteur pour serveur avec température et humidité permet d’objectiver le suivi des conditions opérationnelles dans des environnements denses.

    De la même façon, la compréhension des contraintes réseau et de l’alimentation est centrale lorsqu’on compare des architectures électriques et optiques. Un compteur de puissance réseau pour datacenter aide à relier consommation et performance, même si ce type d’outil ne mesure pas directement l’optique, il met en perspective l’arbitrage énergétique.

  • Émirats arabes unis se retirent de l’OPEP après près de 60 ans

    Émirats arabes unis se retirent de l’OPEP après près de 60 ans


    Les Émirats arabes unis ont annoncé qu’ils quitteraient l’OPEP et le format OPEP+ à compter du 1er mai, mettant fin à une adhésion qui a débuté en 1967, soit bien avant la création officielle du pays. Ce choix marque un tournant dans la manière dont le pays entend peser sur les équilibres énergétiques mondiaux, dans un contexte de tensions sur l’offre et la logistique.

    Une sortie présentée comme stratégique

    Dans un communiqué du gouvernement, le pays justifie sa décision par une revue de sa politique de production et de ses capacités, la présentant comme l’expression d’une vision économique et énergétique de long terme. Les Émirats indiquent aussi vouloir répondre à des besoins “pressants” du marché, en soulignant que certaines perturbations de l’approvisionnement pèsent sur l’offre disponible.

    L’annonce intervient au regard d’un contexte géopolitique tendu, notamment lié à un conflit en cours qui limite fortement la circulation des navires-citernes dans une zone clé du commerce énergétique. Or, le détroit concerné concentre une part importante des flux mondiaux de pétrole et de gaz liquéfié, ce qui renforce la sensibilité des marchés aux variations de production et de capacité de transport.

    Le communiqué insiste enfin sur une logique de pilotage : la sortie serait guidée par des tendances structurelles, avec une croissance attendue de la demande énergétique à moyen et long terme, et non par une réaction immédiate à la conjoncture.

    Une relation déjà marquée par des frictions

    Cette décision n’est pas totalement surprenante. En 2021, les Émirats avaient refusé de soutenir un accord visant à prolonger des coupes de production tant que leur quota individuel ne serait pas revu à la hausse. Le pays défendait l’idée qu’il avait investi massivement pour développer ses capacités, tout en estimant être contraint par des chiffres fixés en 2018.

    Depuis, cette ambition s’est renforcée. L’entreprise publique ADNOC a notamment affiché un objectif de production de 5 millions de barils par jour d’ici 2027, alors que la production actuelle est autour de 3,4 millions. Dans le cadre des engagements OPEP+, les Émirats ont été tenus à un niveau proche de 3,2 millions de barils par jour, alors que leurs capacités dépassent les 4 millions. L’écart rendait l’alignement sur les quotas plus difficile à défendre.

    Pour autant, les Émirats précisent que leur départ ne signifie pas une baisse de leur responsabilité dans la fourniture énergétique. Ils indiquent vouloir augmenter leur production de façon graduelle et “mesurée”, en tenant compte de la demande et des conditions de marché, tout en poursuivant leurs investissements dans le pétrole, le gaz, les énergies renouvelables et les technologies à faible intensité carbone.

    Le pays met aussi en avant un argument de flexibilité : l’OPEP fixe des plafonds de production, ce qui peut amener les grands producteurs à ne pas exploiter tout le volume qu’ils pourraient commercialiser. Cette dynamique vise souvent à soutenir les prix, au bénéfice de pays plus dépendants de leurs revenus pétroliers.

    Réaction des marchés et conséquences pour l’OPEP

    À court terme, l’annonce a été accueillie par un mouvement significatif sur les marchés. Le Brent, référence européenne, a brièvement franchi le seuil des 100 dollars le baril, avant de continuer de progresser selon les données disponibles au moment de l’analyse.

    À moyen terme, l’enjeu est plus large. Le groupe subit depuis plusieurs mois des tensions liées à des dépassements de quotas et à des ajustements entre membres. Le départ des Émirats retire à l’OPEP l’un de ses producteurs majeurs, au moment où les dynamiques d’offre restent déjà fragiles.

    Les Émirats ne sont pas le premier à rompre l’équilibre du cartel : le Qatar avait déjà quitté l’OPEP en 2019. Cette nouvelle étape intervient alors que l’organisation se prépare à poursuivre ses discussions à Vienne.

    Dans sa communication, le gouvernement des Émirats affirme vouloir recentrer ses efforts sur l’intérêt national et sur ses engagements envers investisseurs, clients, partenaires et marchés énergétiques mondiaux. Le pays reconnaît par ailleurs la coopération de plus de cinq décennies au sein de l’OPEP et souhaite à l’organisation d’avancer.

    Pour suivre les évolutions de prix et de structure du marché, certains lecteurs s’aident d’outils de suivi simples. Par exemple, un lecteur d’énergie pourrait consulter un dispositif de suivi des prix comme le suivi des prix du pétrole via application (selon compatibilités), ou encore s’équiper d’une station de prévisions/affichage de données pour mieux organiser ses lectures.

    Dans la même logique, un accès à des données et à des analyses économiques peut être complété par une veille régulière dans un lecteur portable de statistiques. À titre indicatif, un chargeur portable fiable peut aider à maintenir la connexion lors de déplacements pour consulter des indicateurs de marché en temps réel.

  • L’évolution des encodeurs : des modèles simples à l’IA multimodale

    L’évolution des encodeurs : des modèles simples à l’IA multimodale


    Quand on parle d’intelligence artificielle, on pense d’abord à ses résultats : textes qui sonnent juste, images spectaculaires ou recommandations ciblées. Mais avant tout cela, l’IA doit “comprendre” les données qu’on lui fournit. Ce travail commence par les encodeurs, des composants qui transforment des informations du monde réel en représentations structurées exploitables par les modèles.

    Au fil des progrès, ces encodeurs ont évolué : d’simples convertisseurs de données, ils sont devenus des systèmes capables de traiter le sens et de gérer plusieurs types d’informations à la fois. Une progression progressive, façonnée par des besoins concrets et des défis techniques.

    De la conversion de données à l’apprentissage

    Au début de l’apprentissage automatique, l’encodage relevait surtout de la mise en forme. Les développeurs devaient définir manuellement comment représenter les données : par exemple, associer des catégories comme “petit”, “moyen” ou “grand” à des valeurs numériques. Le système pouvait alors traiter ces nombres, mais il ne “comprenait” pas réellement les relations entre les concepts : il exécutait des règles à partir de la représentation fournie.

    La dynamique change avec l’arrivée des réseaux neuronaux. L’idée devient moins de prescrire des transformations et davantage de laisser le modèle apprendre des régularités directement à partir des données. En reconnaissance d’images, par exemple, l’encodeur repère progressivement des motifs (formes, textures, structures) à partir d’images annotées. En langage, les mots ne sont plus de simples symboles : ils sont convertis en vecteurs qui capturent des relations sémantiques, permettant par exemple de rapprocher des expressions proches même si elles ne sont pas formulées de la même manière.

    Les autoencodeurs : comprimer pour reconstruire

    Une étape importante de cette évolution passe par les autoencodeurs. Leur principe est simple : comprimer des données tout en préservant l’essentiel, puis tenter de les reconstruire à partir de cette version réduite. Pour y parvenir, l’encodeur apprend quels éléments sont déterminants et lesquels peuvent être ignorés.

    Ce mécanisme a trouvé des usages pratiques. Dans la détection de fraude bancaire, le modèle apprend le comportement “habituel” ; un écart significatif déclenche une alerte. Dans le stockage d’images, l’encodeur aide à réduire la taille des fichiers en conservant les informations utiles, ce qui améliore la vitesse de chargement sans dégrader excessivement la qualité perçue.

    L’ère des transformeurs : le contexte comme levier

    Le tournant le plus visible de l’évolution des encodeurs vient avec les modèles de type transformer. Leur force réside dans la capacité à prendre en compte le contexte de manière beaucoup plus globale. Plutôt que d’analyser un élément à la fois, ils examinent les informations dans leur ensemble et priorisent ce qui est le plus pertinent.

    En langage, cette approche aide à résoudre certaines ambiguïtés. Prenez la phrase “Elle a vu l’homme avec le télescope” : qui possède l’instrument ? Les modèles fondés sur les transformeurs analysent la phrase dans sa globalité pour proposer une interprétation plus cohérente.

    Cette évolution alimente une grande partie des usages du quotidien : chatbots, dictée, traduction en ligne. Le rôle de l’encodeur est alors d’arbitrer et de représenter l’information de façon suffisamment fine pour que l’interaction paraisse naturelle.

    Encodage dans les services du quotidien

    Même lorsque cela reste invisible, les encodeurs structurent l’expérience numérique. Les plateformes de streaming exploitent des représentations de préférences pour mieux anticiper les contenus susceptibles d’intéresser un utilisateur, en observant des régularités au fil du temps. Les applications de navigation s’appuient aussi sur des représentations de données (trafic, conditions de route, habitudes) pour suggérer des itinéraires plus rapides, parfois avant que la congestion soit pleinement perceptible.

    Dans le domaine médical, les encodeurs peuvent aider à analyser des images : ils ne remplacent pas l’évaluation clinique, mais peuvent mettre en évidence des zones à examiner avec davantage d’attention.

    Vers le multimodal : traiter texte, image et davantage

    La dernière grande évolution concerne les encodeurs multimodaux. Au lieu de travailler uniquement sur un type de donnée, ils peuvent intégrer plusieurs modalités, par exemple le texte et l’image, dans un même traitement. L’objectif est de rapprocher davantage le fonctionnement des systèmes de la façon dont les humains appréhendent le monde.

    Sur mobile, une interface pourrait analyser une photo d’une plante et répondre à une question sur son entretien en combinant ce qu’elle “voit” et ce que l’utilisateur “demande”. Dans le commerce en ligne, l’utilisateur peut parfois envoyer une image d’un produit ; le système associe alors les similarités visuelles à une compréhension plus contextuelle, pour proposer des alternatives pertinentes.

    Selon l’objectif, ces encodeurs s’appuient aussi sur des outils de représentation et de déploiement optimisés, par exemple via des bibliothèques d’apprentissage et des environnements de calcul conçus pour la performance. Pour des besoins matériels, un SSD NVMe de capacité adaptée peut aider à accélérer certains traitements et chargements de données dans des pipelines d’expérimentation. Dans un autre registre, disposer d’un modèle de webcam 1080p fiable peut aussi faciliter des scénarios de prototypage multimodal impliquant de l’image en temps réel.

    Des limites à prendre en compte

    Cette montée en puissance s’accompagne toutefois de contraintes. Les modèles avancés demandent davantage de calcul, ce qui implique des coûts et une consommation énergétique significatifs. La question de la durabilité devient alors un sujet de conception.

    La fiabilité pose aussi problème : comme les encodeurs apprennent à partir de données, ils peuvent reproduire des biais existants. Si les données d’entraînement reflètent des inégalités, les représentations apprises peuvent favoriser certains groupes au détriment d’autres. La correction exige une sélection rigoureuse des données et un suivi continu.

    Enfin, la protection des données demeure un enjeu majeur. L’encodage peut impliquer le traitement d’informations personnelles ; la conformité et la sécurité doivent donc être intégrées dès la conception des systèmes.

    Ce qui pourrait venir ensuite

    Les prochaines avancées semblent surtout viser l’amélioration incrémentale : rendre les encodeurs plus rapides, plus efficients et moins coûteux à entraîner ou exécuter. Cela favoriserait l’accès à des capacités d’IA plus large, y compris pour des structures plus modestes.

    La personnalisation est également appelée à progresser. À terme, des encodeurs pourraient mieux adapter les réponses en temps réel à des préférences ou à des styles de compréhension individuels, notamment en éducation. Et du côté multimodal, l’intégration pourrait devenir plus fluide, afin que les interfaces paraissent davantage “conversationnelles” et moins artificielles.

    Au fond, l’évolution des encodeurs ressemble à une révolution discrète : elle ne se voit pas toujours à l’écran, mais elle conditionne largement ce que l’IA peut faire à partir du moment où elle reçoit de l’information brute. En transformant ces données en représentations plus riches, les encodeurs rendent l’intelligence artificielle plus utile, plus flexible et progressivement plus proche des usages humains.

  • Avis sur le cadre photo numérique InkPoster Tela 28,5 : une expérience haut de gamme pour la maison

    Avis sur le cadre photo numérique InkPoster Tela 28,5 : une expérience haut de gamme pour la maison


    La Tela 28.5 d’InkPoster s’inscrit dans une catégorie de plus en plus visible : les cadres photo numériques à écran E Ink, conçus pour afficher des œuvres comme on regarde une affiche ou un tirage. L’idée centrale est simple : obtenir un rendu proche du papier, confortable dans la durée, sans l’effet “dalle” propre aux écrans rétroéclairés. À ce titre, ce modèle se distingue par sa volonté de privilégier l’esthétique artistique plutôt que la fidélité photo brute.

    Une technologie “papier” pensée pour les œuvres

    La Tela 28.5 s’appuie sur une dalle E Ink Spectra 6, associée à un contrôleur Sharp IGZO. L’écran affiche une résolution de 2160 x 3060 sur 28,5 pouces, pour une densité annoncée autour de 131 dpi. Sur le papier, cela peut sembler inférieur aux panneaux OLED récents. En pratique, la différence s’atténue car l’observation se fait à distance, et le rendu reste largement convaincant.

    Le point déterminant concerne surtout la lecture visuelle. L’écran n’est pas rétroéclairé : il ne “produit” pas la lumière comme un téléviseur ou un écran LCD. L’image est donc perçue avec des tons plus feutrés. Les blancs tirent davantage vers un gris chaud, et les contrastes sont plus limités. C’est précisément ce qui rend le dispositif particulièrement adapté aux illustrations, aux posters et à l’art classique : les couleurs paraissent “posées”, avec une présence qui évoque un support imprimé.

    Pour les œuvres fournies par la galerie InkPoster, le fabricant indique effectuer une correction des couleurs afin de tirer parti de l’écran. Sur les images testées, le résultat se rapproche réellement du papier : les textures se lisent bien et l’ensemble gagne en stabilité visuelle.

    En revanche, la photo peut demander plus d’attention. Sur les clichés comportant reflets, zones lumineuses intenses ou micro-détails très “cliniques”, certains éléments perdent en impact et l’image peut paraître plus plate. Pour qui choisit ses propres fichiers, un travail préalable sur le contraste et la saturation peut améliorer nettement la perception.

    Installation au mur : entre simplicité et précision

    Le format impose de prendre en compte la logistique. La Tela 28.5 pèse environ 16,5 livres et, cadre et monture inclus, ses dimensions atteignent 35 x 28 x 0,98 pouces. Le montage demande deux personnes et l’utilisation d’une perceuse.

    InkPoster fournit toutefois un système de fixation pensé pour faciliter l’alignement. Un support en caoutchouc se visse au mur, puis le cadre vient s’y monter pour obtenir une installation particulièrement affleurante. Le déballage, la mise sous tension, la connexion via l’application et la prise en main complète semblent faisables en une trentaine de minutes, le temps pouvant augmenter surtout lors du calibrage des mesures de pose.

    Alternatives et positionnement dans la maison

    Le principe des écrans E Ink pour affichage domestique n’est pas unique. Des options existent, mais les approches divergent. Certains cadres comparables misent sur des tailles différentes, tandis que d’autres combinent fonctionnalités domotiques ou génération d’images, ce qui peut détourner l’expérience vers un usage plus “technologique” que “galerie”.

    Si votre objectif est de créer un mur d’œuvres à regarder au quotidien, la Tela 28.5 apparaît comme un produit orienté esthétique, avec un rendu plus calme et moins éclatant qu’un écran rétroéclairé.

    Pour élargir le choix selon l’espace disponible, vous pouvez aussi considérer des cadres E Ink de grande taille afin de comparer le format et la distance de vision. Et si vous cherchez un affichage plus “polyvalent” pour photos et graphismes, les cadres E Ink plus compacts peuvent servir de point d’entrée pour évaluer le rendu avant de passer à une taille murale.

  • Savourer l’exception : une nouvelle marque de croquettes haut de gamme arrive pour le segment premium

    Savourer l’exception : une nouvelle marque de croquettes haut de gamme arrive pour le segment premium


    Le rayon alimentation pour chiens n’a jamais été aussi fourni. C’est précisément dans ce contexte saturé qu’arrive Golden Child, une nouvelle marque positionnée sur le segment premium, avec une promesse centrée moins sur le marketing que sur une approche de conception “testée” auprès des consommateurs. L’objectif : proposer des aliments frais et des compléments au format pratique, tout en répondant à des irritants récurrents remontés par des milliers d’avis.

    Une entrée dans le marché premium via une méthode de validation

    Pour sa fondatrice, Hillary Coles, l’idée d’investir l’alimentation canine était loin d’être évidente au départ. Avant de lancer Golden Child, elle a notamment co-dirigé Hims & Hers, entreprise centrée sur le développement produit et la stratégie de consommation, avec plusieurs associés. Le déclic est venu d’une méthodologie, plutôt que du produit lui-même.

    Golden Child s’appuie sur les “painted door tests” développés par Atomic Labs, un studio qui conçoit des expériences légères pour vérifier ce que les clients font réellement, et pas seulement ce qu’ils disent vouloir. Appliqués à l’univers de la nourriture fraîche pour chiens, ces tests ont révélé un intérêt manifeste.

    Des constats récurrents sur le frais : préparation, tolérance, simplicité

    Au-delà de la demande, l’équipe s’est appuyée sur l’analyse de 11 000 avis de produits de nourriture fraîche pour chiens. Les critiques reviennent de façon similaire : manque de praticité, cas de chiens qui tombent malades, et sentiment que la préparation et le service deviennent une contrainte au quotidien.

    La marque défend l’idée que l’industrie n’aurait que peu innové depuis une dizaine d’années, malgré l’évolution des attentes des propriétaires : lecture attentive des ingrédients, exigence de rigueur et recherche d’une meilleure qualité perçue.

    Deux offres au lancement : un système frais et un “drizzle” à ajouter

    Golden Child démarre avec deux produits “cinq étoiles”, vendus directement aux consommateurs. Le premier est un système de repas frais congelés, conçu pour couvrir une partie de l’alimentation quotidienne. Le second, plus distinctif, est un “drizzle” : un complément liquide stable à température ambiante, pensé pour être ajouté à la nourriture déjà donnée au chien (qu’il s’agisse de nourriture maison, de croquettes ou de l’offre de la marque).

    Le drizzle est annoncé à 19,95 dollars le flacon, tandis que le système de repas démarre à environ 3 dollars par jour. Une formule d’entrée, sous la forme de box de lancement, est proposée pour faciliter le passage à la routine.

    • Objectif du drizzle : simplifier l’amélioration de la ration sans tout remplacer.
    • Objectif du système frais : proposer une alternative structurée, livrée selon une logique d’abonnement.

    Des recettes conçues avec des spécialistes et une logique “protéines”

    Sur la fabrication, Golden Child indique produire aux États-Unis, via plusieurs sites, en s’appuyant sur des chaînes d’approvisionnement qualifiées de “human-grade” (niveau alimentaire destiné aux humains). La marque affirme que le travail de formulation a été mené par un spécialiste en nutrition animale titulaire d’un doctorat, une vétérinaire nutritionniste certifiée, ainsi qu’un chef formé aux cuisines classiques.

    La société met aussi en avant un dispositif interne baptisé “protein block”, censé améliorer le profil en acides aminés en combinant poulet et bœuf d’une manière que la coupe classique seule ne permettrait pas.

    Positionnement et financement : une ambition de marque domestique

    Golden Child annonce un tour de financement total de 37 millions de dollars, en sortie de “stealth”, regroupant une levée de départ et une Série A, menée notamment par Redpoint Ventures, avec la participation d’Atomic et d’A-Star. Pour la marque, le niveau d’exigence repose sur la présence d’experts en interne, et non sur de simples conseillers externes.

    Le nom de l’entreprise est volontairement large. La société n’exclut pas, à terme, des extensions au-delà de la nourriture : compléments, accessoires liés au bien-être ou services autour de la santé animale. L’idée affichée est de devenir une marque installée dans le quotidien des foyers, pas uniquement un fournisseur de repas.

    Ce que cette arrivée change pour le consommateur

    Golden Child s’inscrit dans une tendance de fond : l’alimentation animale cherche à se rapprocher des standards et des habitudes des produits “bien-être” destinés aux humains, avec une exigence de transparence sur les ingrédients et une volonté de réduire la friction au moment de nourrir.

    Le drizzle, en particulier, vise un compromis pratique : améliorer la ration sans imposer un changement complet de nourriture à chaque repas. Pour les propriétaires qui veulent tester le premium sans basculer immédiatement, ce format pourrait représenter une porte d’entrée.

    Pour les personnes qui comparent déjà des options sur les compléments alimentaires pour chiens, on trouve sur Amazon des produits de type topper à mélanger à la ration, par exemple des toppers pour chien visant un usage quotidien similaire. De même, ceux qui cherchent des repas frais ou des alternatives “premium” peuvent regarder des options de nourriture canine surgelée afin de comparer les formats et les contraintes logistiques.

    Reste à voir si Golden Child parviendra à se différencier durablement dans un marché déjà très concurrentiel. La marque mise sur la méthodologie de tests, la qualité annoncée des ingrédients et la réduction des irritants identifiés par l’analyse d’avis clients.

  • Refonte de la pile de données pour l’intelligence artificielle

    Refonte de la pile de données pour l’intelligence artificielle


    Les systèmes de données ont longtemps été pensés pour produire des tableaux de bord et des rapports, souvent au prix d’un effort considérable de personnalisation. Accorder aux équipes l’accès aux bons jeux de données, au bon niveau de détail et avec les bonnes autorisations reste un défi opérationnel. Dans ce contexte, l’essor de l’IA change la donne: il devient possible de rendre l’accès plus direct, de faciliter les requêtes en langage naturel et de relier les résultats à la réalité de l’entreprise, pas seulement à des informations générales.

    Democratiser l’accès aux données grâce à l’IA

    Jusqu’ici, la prolifération des dashboards a créé un paysage fragmenté: de nombreux rapports existent, mais leur production et leur adaptation prennent du temps, et l’accès effectif aux données peut rester lent. L’IA introduit une approche plus “conversationnelle” de l’analytique. Des outils permettent d’interroger les données dans la langue de l’utilisateur et d’obtenir des réponses contextualisées.

    Concrètement, l’intérêt n’est pas seulement d’obtenir un résumé général, mais d’analyser ce qui s’est réellement passé dans l’entreprise. Par exemple, au lieu de constater un écart de performance, le système peut aider à identifier des facteurs explicatifs à partir des données internes, en s’appuyant sur une logique de type analyses OLAP (Online Analytical Processing) associée à des données bien gouvernées.

    Du “data stack” analytique à la couche temps réel

    La dynamique évolue encore avec le déploiement d’agents capables d’orchestrer des workflows. Ces agents ne se limitent pas à répondre à des questions: ils doivent exécuter des tâches, conserver un contexte de travail et suivre leurs propres actions. Cette montée en complexité exige une capacité de données adaptée aux opérations en temps réel, généralement associée à des modèles OLTP (Online Transaction Processing).

    Dans cette logique, l’enjeu devient de combiner deux besoins: d’un côté, l’analytique pour comprendre; de l’autre, une base opérationnelle pour piloter et exécuter. Certains acteurs proposent ainsi une approche “Lakehouse” étendue, distinguant calcul et stockage, tout en permettant des opérations rapides comme le démarrage, la copie et l’arrêt de bases dédiées. L’objectif est de fournir un environnement dynamique pour les agents, sans dupliquer inutilement les données.

    Unifier OLTP et OLAP pour limiter la friction

    La recomposition d’un “data stack” orienté IA vise aussi à réduire les coûts et la complexité. En réunissant les dimensions OLTP et OLAP au sein d’un même ensemble technologique, les entreprises cherchent à éviter la multiplication des copies de données et la gestion répétée des permissions. L’idée est de simplifier le contrôle d’accès et la définition du contexte, afin que les applications IA puissent exploiter les données de manière plus fluide.

    Dans cette vision, les applications IA sont appelées à devenir un mode de fonctionnement plus courant: elles automatisent des tâches répétitives, réduisent les goulots d’étranglement humains et s’appuient sur des systèmes de données conçus pour être performants, fiables et sécurisés. Un point souvent mis en avant est la nécessité de réduire les temps d’accès et d’améliorer la gouvernance, afin de passer d’une logique de reporting à une logique d’exécution et de décision.

    Mesurer la valeur: un prérequis pour des systèmes “AI-ready”

    Au-delà de la technologie, les projets IA se heurtent à une question centrale: comment prouver la valeur ? La mesure de la performance et des résultats attendus n’est pas une formalité. Elle conditionne la crédibilité des déploiements et aide à déterminer ce qui fonctionne réellement.

    Un principe ressort: il faut relier les objectifs métier aux indicateurs observables. Par exemple, si une entreprise cherche à optimiser ses dépenses directes et indirectes via l’IA, il devient essentiel de définir des métriques de départ (catégorisation des dépenses indirectes, montants associés, potentiel de réduction). À partir de ces bases, les systèmes peuvent ensuite traduire les signaux et la télémétrie des applications IA en indicateurs mesurables, en cohérence avec les outcomes visés.

    Cette approche implique généralement de mettre en place des vues et des outils permettant de faire le pont entre données générées par les applications et indicateurs business. L’enjeu est d’assurer une traçabilité: savoir ce que l’IA a influencé, sur quel périmètre, et avec quel impact.

    Produits adaptés à l’environnement de données et d’analytics

    Dans une stratégie de reconstruction du data stack, le choix des outils de traitement et d’analyse est déterminant. Selon l’environnement, des solutions comme plateformes d’entrepôt et d’analytique cloud peuvent servir de base pour structurer l’accès aux données et standardiser les parcours d’analyse. Pour des équipes ayant besoin d’explorer, préparer et interroger des données avant leur mise en production, des outils d’intégration et de préparation de données peuvent aussi aider à réduire la friction entre les systèmes opérationnels et la couche analytique.

  • Microsoft met fin à son partenariat exclusif avec OpenAI

    Microsoft met fin à son partenariat exclusif avec OpenAI



    La relation entre OpenAI et Microsoft, longtemps présentée comme l’un des partenariats les plus structurants de l’intelligence artificielle, évolue. L’entreprise a annoncé un accord révisé avec le géant américain : l’exclusivité côté cloud est assouplie, ouvrant la voie à une diffusion des modèles au-delà d’Azure. Dans le même temps, Microsoft conserve certains droits sur la propriété intellectuelle et les modèles, jusqu’en 2032.

    Un partenariat qui passe de l’exclusivité à une ouverture sur d’autres clouds

    Selon l’annonce conjointe, Microsoft reste un partenaire central. Azure demeure le « principal partenaire cloud » pour OpenAI sur la période prévue, à condition que Microsoft puisse continuer à remplir ses engagements. Toutefois, le changement majeur réside dans la nature de la licence accordée à Microsoft : elle devient non exclusive. Concrètement, OpenAI pourra proposer ses modèles via d’autres grands fournisseurs de cloud à l’avenir.

    Cette modification a une portée stratégique. En s’affranchissant d’une exclusivité stricte, OpenAI réduit sa dépendance opérationnelle à un seul environnement d’infrastructure, tout en préservant une relation de long terme avec Microsoft.

    Des droits maintenus pour Microsoft, mais une exclusivité cloud allégée

    Le nouvel accord précise que Microsoft conserve une licence sur la propriété intellectuelle et les modèles d’OpenAI jusqu’en 2032. Par ailleurs, Azure reste associé à la distribution et au déploiement, au moins dans une logique de continuité pendant la période concernée.

    Le texte indique toutefois que l’on est désormais dans un schéma où la possibilité d’autres clouds est intégrée dès maintenant dans les perspectives de déploiement.

    Redevances à Microsoft : calendrier maintenu, conditions encadrées

    Sur le plan financier, OpenAI versera toujours à Microsoft une part de revenus (20 %), conformément au principe initial. La différence réside dans le fait que cette contribution est désormais soumise à un plafond non précisé et qu’elle est garantie jusqu’en 2030.

    L’accord mentionne aussi que cette part de revenus est indépendante des progrès technologiques d’OpenAI. Autrement dit, elle ne serait plus directement liée à une éventuelle atteinte d’objectifs de type “intelligence générale artificielle” (AGI), référence à une clause longtemps évoquée dans les discussions autour du partenariat.

    Quel impact pour l’industrie ?

    Cette évolution peut être lue comme un ajustement pragmatique. Pour les entreprises utilisatrices, l’accès à des modèles via plusieurs clouds pourrait réduire certains risques de verrouillage et faciliter l’adoption dans des environnements déjà constitués. Pour les fournisseurs de cloud alternatifs, l’ouverture crée une fenêtre commerciale, même si Azure conservera une place dominante.

    Dans le même temps, Microsoft conserve une base contractuelle importante, ce qui suggère que le partenariat ne se rompt pas : il se reconfigure.

    Pour celles et ceux qui suivent de près les infrastructures nécessaires à l’exécution de modèles à grande échelle, l’angle “matériel et accélération” reste déterminant. À titre indicatif, certains professionnels s’équipent via des solutions comme des stations de travail équipées de GPU pour tester ou déployer des charges IA en environnement contrôlé.

    Du côté réseau et connectivité, les environnements multi-cloud posent aussi des questions d’acheminement et de latence ; des équipements comme des commutateurs réseau 10GbE sont souvent utilisés pour fiabiliser les flux dans des architectures distribuées.

  • YouTube teste un mode de recherche par IA plus conversationnel

    YouTube teste un mode de recherche par IA plus conversationnel


    YouTube teste un mode de recherche par intelligence artificielle qui se veut plus interactif, sur le modèle d’une conversation. Baptisé « Ask YouTube », ce dispositif vise à transformer la simple requête en échanges successifs, avec des résultats combinant contenus vidéo et informations textuelles. Une approche qui illustre, une fois de plus, la volonté des grands acteurs du web d’intégrer l’IA au cœur des expériences utilisateurs.

    « Ask YouTube » : une recherche qui évolue avec les questions

    Google explique que le mode expérimental permet de poser des questions complexes, puis d’affiner les réponses via des questions complémentaires. Concrètement, l’outil affiche des « résultats complets » intégrant à la fois des vidéos et du texte, avant de proposer des relances pour approfondir un sujet.

    Pour démarrer, il faut activer la fonction dans le compte, puis sélectionner « Ask YouTube » dans la barre de recherche. L’utilisateur peut s’appuyer sur des suggestions de requêtes, ou formuler une demande personnelle, par exemple pour planifier un voyage ou cadrer un projet sur plusieurs jours. Après consultation des premiers résultats, il est possible de poursuivre avec des questions de suivi.

    Des résultats parfois très utiles, parfois moins fiables

    Lors de tests rapportés par la presse, une requête centrée sur un sujet historique a généré un résumé de contexte, accompagné de vidéos et d’horodatages pour retrouver rapidement les passages pertinents. En revanche, d’autres requêtes n’ont pas toujours abouti à des réponses structurées : certains cas se sont rapprochés d’une recherche YouTube classique, avec une liste de vidéos.

    Comme avec de nombreuses fonctionnalités basées sur l’IA, la qualité peut varier selon la formulation et le type de sujet. Des exemples ont également montré la possibilité d’erreurs factuelles sur des demandes portant sur des détails techniques. Autrement dit, le mode « conversationnel » ne garantit pas systématiquement une précision élevée à chaque essai.

    Un essai limité dans le temps et l’audience

    L’outil est disponible à titre expérimental pour des abonnés Premium aux États-Unis, âgés de 18 ans et plus. Le déploiement est annoncé sur une période limitée, ce qui laisse supposer que Google évalue la pertinence des résultats, la compréhension des requêtes et la stabilité de l’expérience avant un éventuel élargissement.

    Ce que cela change (ou pas) pour les utilisateurs

    YouTube a une particularité : ses utilisateurs cherchent souvent des informations très spécifiques, et la plateforme peut déjà être efficace avec des recherches textuelles classiques. La promesse de « Ask YouTube » est de réduire le temps de navigation en combinant des synthèses et des vidéos directement liées au sujet, puis en permettant de corriger ou d’affiner la demande en cours de route.

    Cependant, l’adoption dépendra de la confiance accordée au contenu généré ou mis en forme par l’IA. Les utilisateurs restent attentifs à la fiabilité des réponses, notamment quand elles s’accompagnent de résumés présentés comme cohérents. Tant que le système ne garantit pas une précision constante, il faudra probablement utiliser ce mode comme un point de départ, puis vérifier via les vidéos proposées.

    Conseils pratiques

    • Formulez des questions avec des contraintes claires (périmètre, lieu, durée, niveau de détail) pour obtenir des résultats plus exploitables.
    • En cas de doute sur une information, privilégiez les passages avec horodatage et revenez à la vidéo pour vérification.

    Pour une expérience de visionnage confortable, certains utilisateurs s’équipent aussi d’accessoires simples : une clavier sans fil pour TV peut faciliter les recherches et les questions de relance, tandis qu’un boîtier de streaming 4K permet de garder une bonne fluidité lors de l’affichage et du passage entre vidéos.

  • Musk et Altman s’affrontent lors d’un procès décisif pour l’avenir d’OpenAI

    Musk et Altman s’affrontent lors d’un procès décisif pour l’avenir d’OpenAI


    Le procès opposant Elon Musk à Sam Altman, dans le cadre du bras de fer autour d’OpenAI, s’annonce comme un moment décisif. Au-delà du face-à-face médiatisé, les enjeux sont organisationnels et financiers: qui détient la légitimité, qui a apporté quoi, et surtout quelle trajectoire OpenAI doit suivre à l’avenir.

    Des accusations centrées sur le mérite et la gouvernance

    Dans la procédure, OpenAI reproche à Elon Musk d’avoir cherché à capter une part excessive du succès de l’organisation. L’entreprise met notamment en avant des éléments liés à la façon dont Musk, d’après ses opposants, aurait minimisé l’apport des chercheurs et des ingénieurs ayant contribué au développement de ChatGPT.

    Au cœur du débat figure aussi la question du modèle de gouvernance. Les discussions portent sur la manière dont OpenAI s’est structurée au fil du temps et sur la cohérence des positions de Musk, qui, parallèlement, dirige une entreprise d’intelligence artificielle.

    Un procès qui promet des témoignages de poids

    Selon les informations communiquées, Sam Altman et Elon Musk devraient chacun être appelés à la barre pour plus de deux heures. D’autres personnalités du secteur sont également susceptibles de témoigner.

    Parmi les autres noms évoqués, Greg Brockman devrait intervenir pendant environ deux heures et demie, tandis que Satya Nadella, à la tête de Microsoft, est annoncé pour une durée d’environ une heure.

    Plusieurs témoins complémentaires figurent aussi sur la liste, dont Ilya Sutskever et Shivon Zilis. Cette dernière, associée à Musk, pourrait occuper un rôle important dans la stratégie de présentation des faits, notamment au regard d’échanges antérieurs mentionnés dans le dossier.

    Un calendrier long et un protocole strict

    Le procès pourrait s’étendre sur plusieurs semaines. Un point d’organisation a attiré l’attention: l’exigence que tous les témoins empruntent l’entrée principale du tribunal, sans traitement particulier. Une mesure qui vise à encadrer la conduite des audiences et à réduire toute forme de mise en scène.

    Le contexte concurrentiel pèse aussi dans le débat

    Parallèlement au volet judiciaire, la compétition dans l’intelligence artificielle évolue à grande vitesse. OpenAI est confronté à une concurrence qu’un observateur extérieur qualifierait d’intense, notamment avec l’essor d’acteurs comme Anthropic et les avancées d’acteurs établis dans l’écosystème technologique.

    Dans ce contexte, le procès pourrait être perçu comme un révélateur de tensions plus larges: la rivalité technologique d’un côté, et la bataille pour l’influence sur l’orientation d’OpenAI de l’autre.

    La ligne de défense envisagée: tester la notion de menace existentielle

    Lors de la préparation du dossier, l’équipe juridique d’OpenAI aurait cherché à confronter Elon Musk à ses propres positions, notamment lorsqu’il s’agit de la notion de risque lié à une intelligence artificielle générale (AGI). L’idée serait de vérifier si Musk maintient, aujourd’hui, la même vision—et si sa trajectoire personnelle, en lançant une entreprise à but lucratif, reste cohérente avec ce qu’il défendait auparavant.

    Cette approche consiste à s’appuyer sur les déclarations passées pour mettre en évidence des contradictions potentielles, ou à tout le moins tester la solidité des arguments avancés dans la procédure.

    Produits Amazon (pour suivre l’information et mieux comprendre les audiences)

  • Test de la manette Steam Controller : à la recherche d’une console

    Test de la manette Steam Controller : à la recherche d’une console


    Le Steam Controller de Valve n’a pas vocation à remplacer une manette “universelle” pour jouer sur PC, tablette ou smartphone. Son objectif est plus ciblé : piloter les jeux via Steam, uniquement via Steam. Autrement dit, même si l’appareil est destiné au jeu sur ordinateur, il s’inscrit d’abord comme un outil pensé pour l’écosystème de la plateforme—et, à terme, pour l’arrivée de la fameuse “console” de salon associée.

    Une manette pensée pour Steam, pas pour tout l’écosystème PC

    Valve présente le Steam Controller comme un périphérique dédié. Pour lancer un jeu, il faut passer par Steam : le contrôleur ne s’adresse donc pas à ceux qui cherchent une compatibilité large, ni à ceux qui veulent garder une approche “PC classique” sans entrer dans l’écosystème de Valve. Dans la pratique, cela signifie qu’ajouter certains jeux non nativement présents sur Steam peut devenir une étape supplémentaire.

    Le contrôleur s’insère dans un plan plus vaste, lié au projet Valve de console de salon. Cette console n’a pas de calendrier public clair au moment où l’on évalue le produit, mais l’idée reste la même : rapprocher une bibliothèque Steam de votre canapé, en s’appuyant sur un matériel et des accessoires cohérents.

    Conception : solide, équilibrée, et étonnamment légère

    Sur le plan matériel, le Steam Controller affiche une silhouette distinctive : une face large, deux trackpads sous les sticks analogiques, et un ensemble de boutons arrière. Malgré une prise en main visuellement “épaisse”, l’ensemble paraît bien équilibré et reste agréable, y compris pour des mains plus petites. Les bords sont arrondis, ce qui facilite le mouvement entre les gâchettes et les boutons de prise en main.

    • Deux trackpads très réactifs, avec une sensation proche de celle observée sur d’autres contrôleurs Valve
    • Boutons arrière offrant une action nette à la pression
    • Éléments de contrôle disposés pour limiter les gestes inutiles

    Des sticks TMR pour limiter le drift

    Valve équipe la manette de joysticks à tunnel magnetoresistance (TMR). Le principe est conçu pour apporter une grande précision et une meilleure tenue dans le temps, avec un risque réduit de dérive (drift) par rapport à d’anciennes générations de composants. Après plusieurs jours de tests sur différents genres, la tenue et la constance des mouvements semblent répondre aux attentes, en particulier pour les jeux exigeants en visée.

    Pour situer : sur PC, des manettes comme la Razer Wolverine V3 Pro sont souvent citées pour leur confort et leurs sticks à technologie de type Hall effect. Le Steam Controller se distingue ici surtout par l’ajout des trackpads, qui changent la philosophie d’usage—mais qui ne seront pas forcément utiles à tous les joueurs selon les jeux.

    Recharge et connexion : un dock pratique, mais Bluetooth plus latence

    Le contrôleur se recharge via un petit “puck” qui se connecte à un PC ou à une Steam Deck via USB. Une fois en place, il assure une connexion sans complication et une reconnexion rapide. Valve propose aussi des options de connexion via Bluetooth ou via câble, mais en termes de réactivité, Bluetooth reste généralement plus sensible à la latence—un point surtout pertinent pour les usages sur téléphones ou via certains systèmes de jeu à distance.

    Le comportement global de la manette pendant les sessions testées a été cohérent : aucune dégradation perceptible de la latence sur les distances d’utilisation typiques en salon, et une autonomie annoncée qui tient correctement en pratique. Valve indique une autonomie supérieure à 35 heures, avec une possibilité de baisse en cas d’utilisation accrue liée aux accessoires, notamment en contexte VR.

    Trackpads et gyroscope : utiles… selon l’écosystème

    La présence de trackpads et de capteurs (dont des éléments liés à la détection de mouvement) donne à la manette une flexibilité intéressante, mais l’usage dépend fortement du support logiciel. À ce stade, sans la disponibilité de certaines fonctionnalités futures annoncées, certains réglages avancés restent moins convaincants sur le long terme.

    En revanche, les trackpads ne gênent pas lorsque leur usage n’est pas nécessaire : ils restent intégrés à l’interface sans rendre la prise en main moins naturelle. Pour certains joueurs, c’est aussi un levier d’accessibilité et de personnalisation, là où d’autres préfèreront une approche plus classique.

    Un pari clair pour le salon… et un contrôle assumé de la plateforme

    En définitive, le Steam Controller est moins une “réinvention” générique de la manette qu’un instrument conçu pour renforcer l’usage de Steam comme point d’entrée unique. Cette logique peut séduire ceux qui jouent majoritairement sur la plateforme et cherchent une expérience canapé fluide. En revanche, elle peut agacer les joueurs qui souhaitent garder un maximum de liberté côté lancement et organisation de leur bibliothèque.

    Si votre priorité est une manette polyvalente sans dépendre d’un écosystème, vous pourriez regarder du côté d’alternatives plus “console-like” comme la manette 8BitDo Ultimate en Bluetooth, souvent choisie pour sa compatibilité et sa simplicité d’usage.

    Verdict

    Le Steam Controller est une manette de haute facture, dotée de composants orientés précision (TMR) et d’accessoires qui peuvent enrichir l’expérience, notamment grâce aux trackpads. Son point central reste toutefois sa dépendance à Steam : c’est un produit pensé pour jouer “dans” Steam, plutôt que pour jouer “partout”. Pour les utilisateurs déjà très investis dans la plateforme, l’approche peut sembler logique et séduisante. Pour les autres, le gain de confort et la nouveauté matérielle peuvent être contrebalancés par le cadre imposé par l’écosystème.