Catégorie : Technologie

  • Comment une société de capital-risque investit dans un monde de plus en plus fragmenté

    Comment une société de capital-risque investit dans un monde de plus en plus fragmenté


    Le monde contemporain est traversé par des divergences culturelles, des fractures politiques et des tensions géopolitiques. Dans ce contexte, les investisseurs en capital-risque doivent identifier des entreprises capables de grandir suffisamment pour générer des rendements à l’échelle du secteur. C’est dans cette logique que s’inscrit Kompas VC, qui déploie une stratégie attentive aux réalités régionales.

    Basé à Amsterdam, Copenhague, Berlin et Tel Aviv, le fonds a annoncé un nouveau véhicule d’investissement de 160 millions d’euros pour soutenir ses prises de participation. L’objectif : mieux naviguer dans un environnement de plus en plus fragmenté, tout en conservant une ligne claire autour de la compétitivité industrielle.

    Une stratégie construite autour de trois pôles économiques

    Kompas VC part d’une lecture du monde en trois sphères d’activité économique et politique : les États-Unis, l’Europe et la Chine. Selon le partenaire du fonds, les trajectoires y diffèrent, ce qui impose d’adapter les attentes et la manière d’évaluer le potentiel de croissance des startups.

    Le fonds a historiquement privilégié des entreprises qui répondent à des défis clés de compétitivité industrielle : fabrication, chaînes d’approvisionnement, infrastructures critiques ou encore durabilité. Si ces thèmes demeurent, leur importance relative varie selon les régions.

    Des priorités qui évoluent avec le cycle technologique

    Kompas VC a également reconnu le changement de paradigme depuis la création du fonds. Là où, autour de 2021, l’enthousiasme était fort pour des sujets industriels et de durabilité, le paysage actuel est davantage structuré par l’intelligence artificielle et des dynamiques de croissance plus rapides. Le fonds indique toutefois rester centré sur des enjeux qui relèvent directement du monde physique, et non uniquement sur des usages numériques.

    Dans cette optique, il cible des startups liées à la décarbonation, à l’amélioration de la productivité et à la gestion des risques. Le fonds affirme avoir trouvé une niche, tout en la décrivant comme suffisamment large pour couvrir plusieurs secteurs.

    Investir tôt, avec des tickets adaptés

    Avec son deuxième fonds, Kompas VC prévoit de disposer de marges pour mener des tours de table à un stade précoce. Les montants envisagés se situent entre 3 et 5 millions d’euros par investissement, selon la structure des opérations.

    L’approche s’appuie sur des relations locales en Europe, où le fonds bénéficie d’un accès à un large éventail de fondateurs et d’entreprises. Mais la stratégie doit aussi tenir compte des limites que peut introduire la fragmentation mondiale sur la capacité de certaines startups à atteindre une taille critique.

    Les effets culturels et réglementaires sur l’expansion

    Le fonds souligne que la fragmentation ne concerne pas seulement les marchés, mais aussi les habitudes industrielles et les cadres culturels. L’exemple cité concerne le logement préfabriqué : déjà largement utilisé dans certains pays scandinaves, ce modèle serait moins répandu ailleurs en Europe, et encore plus rare aux États-Unis.

    L’argument avancé est que l’enjeu n’est pas uniquement technologique. Il tiendrait aussi à la manière dont les acteurs d’un secteur évaluent et adoptent des solutions. Dans ce cadre, la question devient celle de la taille du marché adressable lorsque le produit n’entre pas naturellement dans les pratiques dominantes d’une région.

    La même logique s’observe sur des thématiques comme la durabilité : elle demeure très attractive en Europe, mais paraît moins “porteuse” aux États-Unis qu’elle ne l’a été par le passé. Pour un fonds focalisé sur des sujets industriels, l’écart d’alignement entre régions peut influencer le rythme d’adoption et la trajectoire de croissance.

    Des horizons longs pour absorber les retournements

    Kompas VC investit sur des horizons de 10 à 15 ans, ce qui permet de traverser plusieurs cycles réglementaires. Le fonds estime que, malgré les incertitudes, les changements de politiques et de priorités peuvent créer des opportunités, mais aussi provoquer des bascules parfois rapides et imprévues.

    Dans ce contexte, Kompas considère que sa taille relative peut constituer un avantage : être capable de jouer un rôle de premier investisseur sur des thèmes spécifiques, puis d’entrer plus tôt dans des trajectoires portées par certains fondateurs, avant que l’attention du marché ne se généralise.

    Deux pistes pour suivre des thématiques proches

    Pour mieux comprendre les besoins industriels autour de la transition énergétique et de la production bas-carbone, certains entrepreneurs et ingénieurs s’appuient aussi sur des équipements et des matériels de mesure. Par exemple, des outils de capteurs de qualité de l’air peuvent aider à évaluer et piloter des stratégies de décarbonation dans l’industrie, même si leur utilisation dépend fortement des cas d’usage.

    Côté efficacité opérationnelle, l’essor des solutions visant à améliorer la productivité passe souvent par l’automatisation et le suivi des données en atelier. Un capteur de suivi de consommation énergétique pour applications industrielles illustre par exemple comment des données plus fines peuvent soutenir des projets d’optimisation et de réduction des émissions.

  • Google Translate utilise l’IA pour améliorer votre prononciation

    Google Translate utilise l’IA pour améliorer votre prononciation


    Pour son vingtième anniversaire, Google Translate ajoute une brique supplémentaire à son usage quotidien : un entraînement à la prononciation assisté par intelligence artificielle. La fonctionnalité, présentée comme l’une des options les plus demandées, vise à aider les utilisateurs à parler et comprendre plus facilement dans des situations concrètes.

    Une fonction “Practice” pour travailler l’oral

    Le déploiement est actuellement limité à Android. Pour les utilisateurs concernés, un bouton apparaît au bas de l’application, intitulé « Practice ». Deux modes sont proposés : « pronounce », pour s’exercer à prononcer, et « listen », pour écouter une prononciation par des locuteurs natifs.

    Feedback analysé par l’IA

    En mode « pronounce », Google Translate enregistre l’utilisateur et analyse sa production vocale à l’aide de technologies d’intelligence artificielle. L’application fournit ensuite un retour, accompagné d’une transcription phonétique indiquant comment prononcer certains mots. Google illustre ce mécanisme avec un exemple : un mot espagnol (« jugo ») prononcé avec un son de type « j » en anglais plutôt qu’avec le son attendu en espagnol, se retrouve présenté sous une forme phonétique du type « HU-go » afin de guider la correction.

    Déploiement progressif et données d’usage

    Google indique que la nouveauté s’adresse d’abord à l’anglais, à l’espagnol et à l’hindi, avec un déploiement annoncé pour les États-Unis et l’Inde. L’entreprise rappelle aussi l’importance de Translate dans l’apprentissage : une partie des utilisateurs mobile s’en servirait pour entraîner l’écoute et la parole, avec l’objectif de mieux gérer des conversations dans la vie réelle.

    Par ailleurs, Google communique des chiffres d’adoption : Translate couvrirait plus de 250 langues, inclut des langues en situation fragile ou autochtones et compterait plus d’un milliard d’utilisateurs mensuels, pour des volumes de traduction dépassant le milliard de mots chaque mois.

    Pour s’entraîner dans de meilleures conditions

    Pour tirer parti de l’entraînement vocal, l’environnement compte. Un casque ou des écouteurs fiables peuvent améliorer la qualité de l’audition et la compréhension des exemples prononcés. Par exemple, un modèle comme des écouteurs Bluetooth avec micro orienté appels peut être utile si vous testez régulièrement la fonction « listen » et que vous voulez limiter les interférences.

    Si vous préférez un exercice plus “studio”, un casque filaire peut aussi offrir une écoute stable. Vous pouvez vous tourner vers un casque audio filaire avec micro discret pour smartphone, pratique pour s’exercer dans le calme, notamment le soir ou en mobilité.

  • Feuille de route du pilotage autonome de niveau 4 pour l’IA physique : détails sur Kakao Mobility

    Feuille de route du pilotage autonome de niveau 4 pour l’IA physique : détails sur Kakao Mobility


    Kakao Mobility a dévoilé une feuille de route visant le développement en interne de technologies de conduite autonome de niveau 4, dans le cadre de sa stratégie autour de l’« intelligence artificielle physique ». L’entreprise entend combiner ses compétences logicielles avec des briques liées à l’infrastructure et à l’exploitation opérationnelle, afin de bâtir des services de mobilité adaptés à des zones d’usage définies.

    Une démarche liée à l’« IA physique »

    Lors d’une présentation à Séoul, Kim Jin-kyu, responsable de la division Physical AI de Kakao Mobility, a présenté les étapes prévues pour des services d’autonomie de niveau 4. L’événement s’inscrivait dans une dynamique décrite comme plus large, centrée sur l’application de l’IA dans des secteurs industriels et physiques.

    Sur le plan stratégique, Kakao Mobility indique vouloir intégrer la conduite autonome à l’environnement réel de déploiement en Corée. L’objectif affiché est aussi de contribuer à un écosystème ouvert, susceptible de soutenir la compétitivité locale.

    Rappel : ce que signifie le niveau 4

    Selon les définitions de référence en matière de sécurité routière, le niveau 4 correspond à des systèmes capables de gérer la conduite sur des périmètres de service limités, sans exiger de surveillance active permanente de la part des passagers. En pratique, ces solutions sont généralement prévues pour des zones spécifiées, par exemple des secteurs réservés à des services de taxis autonomes.

    Trois axes technologiques pour la feuille de route

    La trajectoire annoncée repose sur trois blocs : des modèles d’apprentissage, des architectures avec redondances, et des systèmes de validation.

    • Modèles d’apprentissage automatique : prise en charge de la perception, de la décision et du contrôle du véhicule, avec l’ambition de réduire les interventions humaines pendant les phases de service visées.
    • Redondance au niveau véhicule : utilisation d’une architecture conçue pour maintenir les fonctions clés en cas de panne d’un composant important.
    • Validation : combinaison de simulations virtuelles et de données issues de la conduite réelle, afin de tester, améliorer et vérifier la qualité des performances.

    L’approche met ainsi l’accent sur la robustesse technique et la capacité à valider des comportements dans des environnements variés.

    Sécurité, supervision et détection d’anomalies

    Kakao Mobility prévoit également une plateforme unifiée de gestion de la sécurité pour ses véhicules autonomes. Parmi les briques citées figure un outil de visualisation 3D, destiné à refléter en temps réel le champ de vision du véhicule et ce que celui-ci détecte pendant la conduite. L’objectif est de donner un contexte opérationnel lisible aux passagers.

    La société évoque aussi l’ajout d’un centre de contrôle fonctionnant en continu et d’un système de détection d’anomalies s’appuyant sur des modèles combinant vision et langage. Ces dispositifs sont annoncés comme destinés à soutenir l’analyse contextuelle, l’intervention à distance et la réponse en situation d’urgence, sans détails techniques supplémentaires sur les performances ou l’architecture retenue.

    Un écosystème ouvert annoncé

    La feuille de route comprend une dimension d’ouverture : la mise à disposition d’actifs technologiques sélectionnés auprès d’acteurs tels que des entreprises, des startups et des constructeurs.

    Parmi les éléments mentionnés : des jeux de données à grande échelle dédiés à la conduite autonome, des cartes haute définition (HD maps), ainsi que des interfaces de plateforme liées à la réservation et à l’acheminement de courses. Les cartes HD sont conçues pour fournir des informations détaillées sur les voies, utiles notamment à la localisation et à la prise de décision.

    Kakao Mobility indique aussi envisager le partage de ressources opérationnelles, incluant la gestion de flotte et des capacités de réponse sur site, afin de faciliter l’émergence d’un écosystème domestique de conduite autonome.

    Données de service à Séoul : un exemple en cours

    La société s’appuie sur un exemple déjà déployé : un service de taxi autonome fonctionnant tard dans la nuit dans le district de Gangnam, accessible via la plateforme Kakao T. Les données rapportées font état de milliers de trajets sur une période allant du lancement fin septembre 2024 jusqu’à fin février 2026, avec l’absence d’accidents attribués à la technologie de conduite autonome sur cette période. Le service, initialement en phase test, a ensuite basculé vers une exploitation payante.

    Le dispositif permet d’appeler le véhicule via Kakao T, en s’appuyant sur l’interface associée au service autonome. Il s’inscrit dans un usage intégré à l’application, où plusieurs services de mobilité coexistent.

    Regards et points d’attention

    Dans ce type de trajectoire vers le niveau 4, les éléments déterminants restent la validation rigoureuse (simulations et données terrain), la capacité à gérer la diversité des scénarios et la robustesse des systèmes de secours. L’insistance sur la redondance et sur la détection d’anomalies traduit une volonté de réduire le risque opérationnel, même si les détails de performance et les critères d’acceptation restent, à ce stade, peu documentés.

    À titre de repères, les équipes qui développent ou testent ce genre de systèmes s’appuient souvent sur des outils de simulation et de traitement de données, ainsi que sur des équipements de stockage et de calcul fiables. Pour des besoins pratiques liés à l’infrastructure de données et de calcul, certains acteurs utilisent par exemple des solutions telles que des SSD NVMe de capacité importante ou des commutateurs réseau 10GbE, selon leurs contraintes internes.

  • iOS 27 devrait intégrer de nouveaux outils de retouche photo alimentés par l’IA

    iOS 27 devrait intégrer de nouveaux outils de retouche photo alimentés par l’IA


    Apple préparerait iOS 27, iPadOS 27 et macOS 27 avec des améliorations centrées sur l’IA, notamment dans l’édition photo. Des informations évoquent de nouveaux outils capables de modifier des éléments plus “structurels” d’une image, au-delà des retouches classiques comme la luminosité ou les filtres.

    Selon des rumeurs relayées par la presse spécialisée, les nouveautés s’inscriraient dans la continuité d’Apple Intelligence, avec des fonctions destinées à faciliter des ajustements plus avancés directement depuis l’app Photos.

    Des outils IA pour modifier l’arrière-plan et la composition

    L’élément le plus marquant concerne l’édition photo. Apple introduirait des fonctions basées sur l’IA permettant de changer des aspects comme l’arrière-plan ou le cadrage.

    Les descriptions disponibles évoquent un ensemble d’outils apparentés à “Apple Intelligence Tools”, dont :

    • Clean Up, pour supprimer des éléments indésirables sur une photo.

    • Extend, pour étendre l’arrière-plan d’une image via une génération automatique.

    • Enhance, pour améliorer automatiquement l’éclairage et la qualité globale.

    • Reframe, pour ajuster la perspective après la prise de vue, avec une attention particulière aux “photos spatiales”.

    Actuellement, l’app Photos propose déjà des ajustements (contraste, saturation), des filtres, du recadrage, ainsi que des outils IA comme la suppression d’objets. L’idée ici serait d’aller plus loin vers des modifications plus “créatives” de la composition.

    Une concurrence qui se durcit sur l’édition générative

    Si ces fonctions sont bien au rendez-vous, Apple rapprocherait ses outils photo des approches adoptées par d’autres acteurs, notamment Google et Samsung. En pratique, la différence porterait sur le niveau de liberté offert à l’utilisateur : certains concurrents proposent déjà des modifications très directes et parfois plus radicales.

    À ce stade, il s’agit de déclarations et de scénarios techniques, non d’annonces confirmées. Le degré d’automatisation, la précision des générations et la variété des résultats dépendront de l’implémentation réelle d’Apple.

    Et aussi : Siri et l’IA dans l’écosystème

    En parallèle des outils photo, d’autres rumeurs évoquent un remaniement de Siri et une intégration plus poussée de l’IA dans les applications. L’objectif serait de rendre l’assistant plus utile au quotidien, tout en étendant la recherche et les interactions assistées par modèles d’IA.

    Pour les utilisateurs, l’enjeu est simple : bénéficier plus rapidement de retouches “à la demande”, sans passer par des logiciels de traitement d’image plus complexes. Pour préparer ce type d’usage, beaucoup se tournent vers des écrans qui améliorent le confort de visionnage et de retouche, par exemple un moniteur 4K avec USB-C qui facilite le travail depuis un Mac.

    Côté stockage, comme l’édition et la génération peuvent augmenter le volume de données conservées, disposer d’une solution de sauvegarde reste pertinent : un SSD externe de 1 To peut aider à préserver des bibliothèques photo volumineuses.

  • L’affrontement juridique entre Musk et Altman et le défi des profits de l’IA

    L’affrontement juridique entre Musk et Altman et le défi des profits de l’IA


    La course à l’intelligence artificielle s’accélère, mais ses retombées juridiques et économiques deviennent de plus en plus visibles. Entre la guerre des alliances entre géants de la tech, les tensions autour de l’usage militaire des modèles, et la difficulté des entreprises à transformer l’innovation en bénéfices, l’IA se retrouve au cœur d’enjeux qui dépassent largement la seule technologie.

    Deepfakes « armés » : la confiance en crise

    Les deepfakes génératifs, désormais accessibles à moindre coût, peuvent être utilisés comme des armes numériques. Ils permettent de produire des contenus visuels et sonores trompeurs, y compris des images à caractère sexuel et des supports de propagande politique, capables d’avoir un impact direct sur les comportements et sur la confiance du public.

    Des spécialistes alertent sur le fait que la multiplication de ces contenus pourrait éroder la capacité collective à distinguer le vrai du faux, et toucher plus durement les femmes ainsi que les personnes déjà exposées à des discriminations.

    Dans ce contexte, un bon point d’entrée pour mieux comprendre les risques et les tendances reste d’observer les outils de vérification et de protection. Pour équiper un poste de travail, certaines personnes privilégient des solutions de sécurité matérielle et logicielle, par exemple un logiciel de cybersécurité reconnu afin de réduire les surfaces d’attaque autour des contenus frauduleux.

    Rivalités industrielles : OpenAI et Microsoft changent de cadre

    Un autre front majeur concerne les partenariats. OpenAI aurait mis fin à son accord exclusif avec Microsoft, ouvrant la possibilité de collaborations avec d’autres acteurs. Microsoft continuerait toutefois à accéder à la technologie d’OpenAI, mais sans exclusivité.

    En toile de fond, la situation financière et les objectifs de croissance pesant sur OpenAI alimentent les incertitudes, notamment alors que l’entreprise se prépare à des étapes clés de valorisation.

    L’IA au service de la sécurité : vers des usages plus sensibles

    Aux États-Unis comme en Europe, l’IA s’inscrit de plus en plus dans les stratégies de défense. Selon des informations relayées dans le secteur, un accord classifié pourrait autoriser l’usage d’outils d’IA pour des finalités gouvernementales, suscitant des inquiétudes en interne.

    Ces évolutions posent une question centrale : comment concilier l’innovation avec des garde-fous clairs, dans des systèmes qui peuvent être entraînés et adaptés à partir de données sensibles ?

    La pression réglementaire européenne sur l’écosystème Android

    En Europe, les autorités ont également fait pression sur la manière dont les services d’IA sont intégrés dans Android, avec l’objectif de limiter les avantages techniques exclusifs dont bénéficierait un assistant en particulier. L’enjeu dépasse le confort des utilisateurs : il touche à la concurrence, à l’accès aux fonctionnalités et à la façon dont les modèles s’insèrent dans les appareils du quotidien.

    La bataille de la rentabilité : produire, monétiser, convaincre

    Au-delà des litiges et des régulations, l’industrie doit encore répondre à un problème de fond : le passage à l’échelle rentable. Plusieurs signaux suggèrent que les acteurs cherchent à diversifier leurs offres (matériel, agents logiciels, nouveaux canaux) tout en faisant face à des objectifs de performance.

    Par exemple, l’idée de systèmes orientés « agents » et des interfaces plus proches des usages pourrait redéfinir la manière dont les entreprises déploient l’IA. Mais tant que la valeur économique n’est pas stabilisée, la pression demeure sur les trajectoires de croissance et la capacité à convertir les capacités techniques en services durables.

    Un mouvement de fond : contestation, prix agressifs et nouveaux acteurs

    Dans certaines régions, notamment en Amérique rurale, une partie du public exprime une forme de rejet ou de crainte à l’égard de l’IA, y voyant un risque pour l’emploi ou une transformation trop rapide des cadres sociaux. En parallèle, la dynamique concurrentielle se renforce avec des modèles proposés à des prix plus bas, visant à attirer davantage d’entreprises et d’équipes de développement.

    Enfin, le marché attire aussi des profils qui quittent de grandes entreprises pour lancer leurs propres structures, signe que l’IA reste un domaine où l’innovation s’accélère, mais où la compétition sur les compétences est intense.

    Ce que ces signaux disent de l’avenir proche

    Pris ensemble, ces éléments dessinent une tendance nette : l’IA n’est plus seulement un sujet de recherche, mais un système social et économique. Les deepfakes posent un défi de confiance ; les partenariats et les régulations réorganisent les rapports de force ; et la rentabilité impose des choix technologiques plus pragmatiques.

    Dans un environnement où les contenus synthétiques et les décisions automatisées se multiplient, la vigilance sur la sécurité et la qualité de l’information devient un enjeu structurel. Pour les équipes qui veulent renforcer leurs pratiques, des outils axés sur la confidentialité et la protection en navigation peuvent faire partie des mesures de base, sans résoudre à eux seuls le problème de fond.

  • Texas Instruments dévoile une nouvelle calculatrice graphique haut de gamme : la TI-84 Evo

    Texas Instruments dévoile une nouvelle calculatrice graphique haut de gamme : la TI-84 Evo


    Texas Instruments renforce sa gamme de calculatrices graphiques avec la TI-84 Evo. Pensée pour rester fidèle à l’usage scolaire et aux programmes de mathématiques, cette nouvelle version met l’accent sur des performances plus rapides, une interface renouvelée et quelques fonctions pratiques pour l’analyse des courbes.

    Un modèle “single-purpose” dédié aux maths

    La TI-84 Evo poursuit l’idée d’une calculatrice conçue pour se concentrer sur une seule tâche : résoudre et visualiser des problèmes de mathématiques. Contrairement aux applications sur smartphone, l’absence de connectivité et d’éléments susceptibles de distraire vise à limiter les interruptions pendant le travail en classe ou à la maison. Un point de détail qui fait aussi sourire : l’appareil conserve des “numéros” de type code interne, associés à des farces classiques de la série TI-84.

    Ce qui change par rapport à la génération précédente

    Texas Instruments annonce un saut notable au niveau du traitement. Le processeur de la TI-84 Evo serait jusqu’à trois fois plus rapide que celui de son prédécesseur. L’équipement gagne également 50 % d’espace supplémentaire pour le tracé de graphes, ce qui peut faciliter la gestion de plusieurs courbes et de données.

    La calculette adopte aussi une grille de navigation simplifiée avec un clavier remanié, ainsi qu’un écran d’accueil à icônes visant à rendre l’accès aux fonctions plus direct. Enfin, le chargement passe par USB-C, un choix pratique pour les utilisateurs disposant déjà de câbles compatibles.

    Une fonction de repérage sur les courbes

    Parmi les nouveautés, une fonctionnalité permet de tracer le long d’un graphe afin d’identifier plus facilement des points d’intérêt. Dans un contexte scolaire, cela peut aider à relier plus vite une courbe à des valeurs spécifiques (lecture de coordonnées, repérage de seuils, etc.), sans multiplier les manipulations.

    Disponibilité et coloris

    La TI-84 Evo est annoncée comme disponible. Elle est proposée dans plusieurs coloris, dont une version blanche “standard” et des variantes plus actuelles (mint, rose, violet, bleu-vert, rouge/framboise et argent). Pour les établissements, une commande en volume est possible via des canaux dédiés.

    Pour compléter l’usage en cours et à la maison, certains utilisateurs privilégient aussi des accessoires adaptés, comme une housse de protection pour calculatrice (utile lors des transports, surtout dans les cartables). Vous pouvez, par exemple, envisager une housse compatible TI-84. Côté alimentation, le passage à USB-C peut également rendre pratique un câble USB-C adapté à votre équipement.

  • IBM lance la plateforme d’IA Bob pour optimiser les coûts du cycle de développement logiciel (SDLC)

    IBM lance la plateforme d’IA Bob pour optimiser les coûts du cycle de développement logiciel (SDLC)


    Pour mieux encadrer les coûts et la gouvernance liés au cycle de développement logiciel (SDLC), IBM met en avant une nouvelle plateforme d’intelligence artificielle baptisée Bob. L’objectif est clair : accélérer la production de code, tout en limitant les dérives classiques de l’automatisation, telles que le manque de traçabilité, la dette technique et les risques de conformité.

    Un cadre d’IA pensé pour le SDLC

    IBM part d’un constat répandu dans les grandes organisations. Les assistances à l’écriture de code gagnent en vitesse, mais elles peuvent aussi introduire des responsabilités non maîtrisées si aucun garde-fou n’est mis en place. Dans des environnements hybrides, avec des exigences de sécurité et de conformité strictes, l’enjeu devient celui de la coordination : savoir où et comment l’IA intervient, selon quelles règles, et avec quel niveau de contrôle humain.

    Bob se présente comme un partenaire de développement “centré IA”, intégré au cycle complet de livraison logicielle. La plateforme s’appuie sur un cadre structuré, avec des modes adaptés aux différents profils (“personas”), des mécanismes de “tool calling” et des contrôles avec validation humaine (“human-in-the-loop”) pour appliquer des standards tout en conservant un rythme de travail soutenu.

    Moderniser des systèmes anciens sans simplifier à l’excès

    La modernisation est souvent l’un des postes les plus lourds : selon IBM, la mise à niveau de systèmes existants mobilise fréquemment 60 à 80 % du budget d’ingénierie, et les projets s’étirent sur plusieurs mois. Cette difficulté est accentuée par la dispersion du travail entre outils, rôles et étapes de projet, ce qui ralentit la livraison et augmente mécaniquement le niveau de risque.

    Le défi est encore plus sensible lorsque les applications reposent sur des architectures historiques. IBM souligne notamment l’intégration de systèmes de type mainframe, dont le code ancien ne se “recopie” pas facilement dans un outil conversationnel : les dépendances sont profondes, et toute modification automatisée exige une cartographie rigoureuse.

    Dans cette logique, l’offre met en avant une approche agentique capable de cartographier les dépendances avant de proposer des refontes. Des “agents” spécialisés sont ensuite mobilisés pour coordonner des tâches autour des tests, de la documentation et de l’intégration continue, afin de traiter la modernisation comme un ensemble cohérent plutôt que comme une succession de fragments.

    Orchestration multi-modèles et contrôle des risques

    Le passage à l’échelle d’une automatisation fondée sur l’IA pose aussi des questions d’exactitude et de coût. L’intégration de modèles de langage en entreprise s’accompagne souvent de difficultés liées aux réponses erronées (“hallucinations”), en particulier lorsqu’il manque de la documentation interne ou du contexte sur des environnements hérités.

    IBM indique que Bob s’appuie sur une orchestration dynamique multi-modèles : la plateforme sélectionnerait le modèle le plus adapté selon la nature de la demande (simple complétion, ou raisonnement architectural exigeant). L’idée est de limiter le gaspillage de calcul et de réduire les distractions d’ingénierie liées au choix du modèle.

    La solution met également l’accent sur des garde-fous intégrés au flux de travail : normalisation des prompts, détection de données sensibles et application de politiques en temps réel. Des mécanismes de validation configurables permettraient, selon les cas, des contrôles manuels ou des approbations automatisées liées au type de tâche. IBM souligne aussi la traçabilité des actions via une interface en ligne de commande générant des processus documentés, un point important dans les environnements soumis à audit.

    Productivité : des résultats internes et des cas d’usage

    IBM affirme avoir d’abord déployé Bob en interne, auprès d’un groupe de test de 100 développeurs, puis l’utiliserait aujourd’hui auprès de plus de 80 000 employés. Les retours internes cités par l’entreprise font état d’un gain moyen de productivité d’environ 45 % sur plusieurs types de tâches (développement de nouvelles fonctionnalités, remédiation sécurité, modernisation). D’autres chiffres mentionnés concernent des gains de temps sur des refontes complexes et des réductions de temps dédiées à certaines missions.

    Des clients externes sont également cités, notamment sur des opérations de migration et de modernisation. Toutefois, ces performances restent dépendantes du contexte (taille des systèmes, qualité de la documentation, maturité des pratiques DevSecOps), et il convient de les considérer comme des ordres de grandeur plutôt que comme des promesses universelles.

    Ce que cela change pour les équipes IT

    Sur le terrain, l’intérêt principal de Bob réside moins dans l’écriture de code “en accéléré” que dans la capacité à encadrer l’ensemble du processus : coordination des tâches, sélection du modèle, contrôle des données sensibles, validation et traçabilité. Pour des organisations qui doivent concilier vélocité et exigences de conformité, ce type d’approche peut réduire le risque de dispersion et mieux aligner l’automatisation sur les standards d’ingénierie.

    Pour les équipes souhaitant renforcer leur environnement de développement et de documentation, un outil de gestion du cycle de vie et des dépendances peut aussi s’avérer utile. Par exemple, vous pouvez considérer des solutions de gestion de versions et de contrôle du cycle de développement ou des outils de documentation pour projets techniques, souvent complémentaires à ce type de plateforme.

  • Les utilisateurs de Sniffies craignent une « hétérosexualisation » de l’application de rencontres gays

    Les utilisateurs de Sniffies craignent une « hétérosexualisation » de l’application de rencontres gays


    Of all the applications de rencontres entre hommes que Brennan Zubrick utilise, Sniffies est celle qu’il privilégie le plus. Présentée comme un espace de rencontres discrètes et assumant une approche sexuelle positive, la plateforme attire notamment des utilisateurs qui cherchent des échanges directs, en dehors de certaines codes jugés plus visibles sur d’autres services.

    Mais l’annonce d’un investissement de Match Group, maison mère d’applications largement connues, a suscité une inquiétude marquée chez une partie des membres de Sniffies. Ils craignent une “straightification”, c’est-à-dire un changement d’orientation qui diluerait l’identité et les usages actuels du service.

    Un investissement qui redessine le rapport de force

    Match Group a annoncé investir 100 millions de dollars dans Sniffies. L’opération prévoit une prise de participation minoritaire, avec la possibilité pour Match Group de devenir propriétaire unique à terme. Pour les utilisateurs, le principal sujet n’est pas seulement le montant, mais le risque de voir une plateforme spécialisée devenir progressivement plus “grand public”.

    De nombreux retours en ligne indiquent que la communauté perçoit ce type de partenariat comme une transformation inévitable : plus de visibilité, plus d’orientation commerciale, et potentiellement un éloignement des règles et du ton qui font l’originalité du service.

    La promesse d’une continuité du projet

    Du côté de Sniffies, le discours cherche à rassurer. La direction affirme que l’investissement vise à soutenir la plateforme plutôt qu’à la redéfinir. L’entreprise met en avant trois axes annoncés comme prioritaires : renforcer la sécurité et la confiance, développer le réseau d’utilisateurs, et poursuivre l’amélioration du produit.

    Le partenariat prévoirait aussi un accompagnement sur l’organisation, les procédures et la technologie destinées à consolider la stratégie de sécurité. Sniffies affirme par ailleurs qu’aucune modification de ses pratiques de gestion des données n’est prévue dans le cadre de l’investissement.

    Une inquiétude centrée sur l’identité de la plateforme

    Malgré les assurances, des membres expriment un malaise. L’idée qui revient est que l’arrivée d’un acteur de grande taille pourrait conduire à une révision du positionnement du service, notamment sur la manière dont il cible et traite sa communauté.

    Certains utilisateurs soulignent aussi une crainte plus large : celle de voir l’application évoluer vers une logique de surveillance ou de monétisation incompatible avec l’esprit “indépendant” souvent associé à ce type de plateforme. Ces critiques restent, à ce stade, largement fondées sur des perceptions et sur des comparaisons avec d’autres cas, plus que sur des faits nouveaux.

    Sécurité, données et avenir du modèle “niche”

    Au-delà du débat sur l’image, la question de fond concerne la durabilité des services “de niche” et leur capacité à préserver leurs règles tout en se conformant à des exigences plus strictes de sécurité et de conformité. La communauté rappelle qu’elle dispose déjà de peu d’alternatives pour trouver des rencontres qui correspondent à ses attentes.

    Dans ce contexte, le défi pour Sniffies sera de prouver que la croissance ne se traduit pas par une standardisation du produit ni par une modification sensible de l’expérience perçue par ses membres. Les prochains mois devraient être déterminants, notamment sur les évolutions concrètes en matière de confiance, de modération et de transparence.

    Pour les personnes qui utilisent ce type d’applications dans une logique de confidentialité, certains choisissent aussi d’améliorer leur protection numérique de base, par exemple via un routeur compatible VPN afin de renforcer le contrôle de leur connexion. De même, l’usage d’un service de messagerie chiffrée peut aider à limiter les risques en dehors de la plateforme, même si cela ne remplace pas les garanties propres au service.

  • Snapchat lance ses agents IA sponsorisés

    Snapchat lance ses agents IA sponsorisés


    Snapchat déploie un nouveau format publicitaire mêlant messagerie et intelligence artificielle : des « AI Sponsored Snaps ». L’idée est simple : placer, dans la conversation, un agent capable de répondre à des questions sur une marque, tout en orientant l’utilisateur vers des offres susceptibles de l’intéresser. Une évolution qui s’inscrit dans une tendance plus large à transformer le chat en espace de découverte et de décision, au risque de brouiller les frontières entre information utile et marketing ciblé.

    Un agent sponsorisé au sein de l’onglet Chat

    Selon Snapchat, ces contenus sponsorisés prennent la forme d’agents d’IA intégrés dans l’onglet « Chat ». À l’ouverture, l’utilisateur peut interagir avec un bot portant le nom de la marque concernée et poser des questions. Une mention « Ad » apparaît à côté du nom de l’annonceur afin d’indiquer qu’il s’agit d’un message publicitaire.

    Dans sa démonstration, Snapchat s’appuie sur un partenaire, Experian, dont l’agent propose notamment des réponses liées à l’épargne, à l’amélioration d’un score de crédit et à l’exploration de produits financiers comme des prêts ou des cartes. Le format vise donc à rendre l’échange plus interactif qu’une simple publicité statique, avec un discours adapté aux questions posées.

    Une publicité conversationnelle, mais orientée

    Le principe soulève toutefois une question : si l’agent répond aux interrogations de l’utilisateur, il est conçu pour servir les objectifs du sponsor. Dans le domaine du crédit, cela peut se traduire par une incitation, parfois implicite, vers des comportements ou des produits qui profitent à l’annonceur.

    À cet égard, la promesse de « meilleure expérience » n’est pas automatique. En théorie, des questions similaires pourraient être adressées à des assistants généralistes, avec des réponses potentiellement plus larges. En pratique, le format sponsorisé cherche plutôt à gagner en pertinence perçue grâce à la spécialisation sur une marque, et à réduire la friction entre la découverte et l’action.

    L’enjeu : faire « natif » dans une interface déjà utilisée pour décider

    Snapchat justifie cette approche en mettant en avant la place grandissante du chat dans les parcours des utilisateurs : conversation, questions, puis décisions, le tout en temps réel. L’enjeu n’est pas uniquement de placer des publicités dans un nouvel endroit, mais de concevoir un format qui s’intègre au langage et aux attentes de l’utilisateur lorsqu’il discute déjà avec l’application.

    La plateforme rappelle aussi l’adoption de « My AI » : plus de la moitié d’un milliard de personnes l’auraient utilisé depuis son lancement. Cette dynamique peut faciliter l’arrivée de nouveaux formats, mais elle renforce également la nécessité de clarté sur la nature des réponses et sur la séparation entre assistance et promotion.

    Ce que les utilisateurs peuvent surveiller

    • La transparence : repérer la mention « Ad » et comprendre que l’agent parle au nom d’une marque.
    • Le degré de neutralité : vérifier si les réponses proposent aussi des alternatives ou si elles orientent vers un seul type d’offre.
    • La précision pratique : en cas de sujet financier ou personnel, comparer les informations obtenues via d’autres sources avant toute décision.

    Pour ceux qui cherchent un cadre concret, disposer d’outils fiables de suivi peut aider à comparer : par exemple, une application de gestion budgétaire comme un planificateur de budget (guides et outils) ou un outil de suivi des dépenses sur smartphone peut compléter l’échange avec des agents publicitaires en offrant une vue personnelle des dépenses.

    De la même manière, pour mieux comprendre les offres, certains utilisateurs se tournent vers des dispositifs ou ressources éducatives, comme des guides pédagogiques sur la cote de crédit, afin de distinguer les réponses marketing des explications générales.

    Au final, l’arrivée des « AI Sponsored Snaps » confirme que la publicité s’oriente vers des interactions plus conversationnelles. Reste à voir comment Snapchat et ses partenaires encadreront l’équilibre entre utilité, transparence et influence commerciale, particulièrement lorsque les sujets abordés touchent à des décisions sensibles comme la finance personnelle.

  • NVIDIA lance une version 12 Go du GeForce 5070 pour ordinateurs portables

    NVIDIA lance une version 12 Go du GeForce 5070 pour ordinateurs portables


    NVIDIA commence à élargir la gamme de ses GPU mobiles en proposant une variante de la GeForce RTX 5070 pour ordinateurs portables, équipée de 12 Go de mémoire vidéo. Cette nouvelle configuration vise à répondre à une demande jugée forte, tout en tenant compte de contraintes d’approvisionnement sur la VRAM, et devrait être progressivement disponible auprès des constructeurs à partir des prochains mois.

    Une RTX 5070 mobile à 12 Go pour compléter le modèle à 8 Go

    Jusqu’ici, la GeForce RTX 5070 pour laptops était principalement associée à une version dotée de 8 Go de VRAM. NVIDIA indique maintenant lancer une variante à 12 Go, destinée à coexister avec l’offre existante. L’objectif n’est pas seulement de donner accès à davantage de mémoire, mais aussi de mieux répartir l’approvisionnement afin de rendre les modèles plus disponibles.

    Dans sa communication, la marque souligne que la nouvelle configuration s’appuie sur un pool de mémoire supplémentaire, présenté comme un complément à celui utilisé sur la majorité des GPU récemment livrés. En pratique, cela permet aux partenaires d’assembler plus facilement des ordinateurs portables avec une VRAM plus élevée, sans attendre nécessairement une disponibilité équivalente sur toutes les références de mémoire.

    Quand arriveront les premiers modèles ?

    Les premiers ordinateurs portables équipés de cette RTX 5070 à 12 Go devraient commencer à être expédiés à partir de juin. Les fabricants susceptibles de proposer la carte incluent notamment ASUS, Lenovo et MSI, même si la disponibilité exacte dépendra des gammes et des configurations retenues.

    Concernant les tarifs, NVIDIA n’a pas communiqué de prix officiel pour cette variante. Des comparaisons avec les modèles plus haut de gamme suggèrent que l’écart de prix pourrait être limité, notamment selon la quantité de mémoire système et les composants associés dans chaque modèle. À l’inverse, si les constructeurs ajustent d’autres paramètres pour rester compétitifs, certains portables pourraient être proposés à un niveau de coût plus accessible.

    Pour se faire une idée des ordinateurs portables orientés jeux/IA autour de ce segment, certains modèles comme le laptop gaming avec une GeForce RTX 5070 peuvent donner un repère, même si les configurations exactes ne reflètent pas toujours la nouvelle variante à 12 Go au lancement.

    Des détails techniques : plus de VRAM, mais pas forcément le même niveau de bande passante

    NVIDIA précise que la RTX 5070 à 12 Go s’appuie sur un type de mémoire différent de celui utilisé pour la configuration à 8 Go. La marque évoque notamment une mémoire « G7 » de capacité supérieure dans la nouvelle variante, associée à un approvisionnement provenant d’une autre chaîne de production.

    Un point important : augmenter la quantité de VRAM ne garantit pas à elle seule des performances identiques à celles d’un modèle supérieur, car la vitesse d’accès dépend aussi de l’architecture globale (notamment l’interface mémoire). Sauf changement majeur de conception, il est probable que cette nouvelle configuration soit surtout un levier de capacité, utile pour certains scénarios (textures plus lourdes, chargements en haute définition), mais avec des limites attendues face à des GPU dotés d’une bande passante supérieure.

    Ce que cela change pour les acheteurs

    Pour les utilisateurs, la disponibilité d’une RTX 5070 à 12 Go devrait surtout améliorer l’option de configuration, notamment pour ceux qui visent des usages plus exigeants que les réglages « classiques ». Toutefois, l’écart de performance réelle dépendra toujours des réglages de jeu, de la résolution, et surtout du couple GPU + mémoire système.

    Si vous cherchez à comparer des configurations récentes dans le même univers, vous pouvez aussi repérer des modèles orientés performance/jeux comme le portables MSI gaming autour de la GeForce RTX 5070, en vérifiant précisément la quantité de VRAM annoncée avant achat.