Catégorie : Technologie

  • Nuro obtient une autorisation de tests pour véhicules autonomes avant le lancement du service Uber Robotaxi

    Nuro obtient une autorisation de tests pour véhicules autonomes avant le lancement du service Uber Robotaxi


    Nuro, startup basée en Californie et soutenue notamment par Nvidia et Uber, a obtenu un permis lui permettant d’effectuer des tests « sans conducteur » sur des SUV Lucid Gravity équipés de sa technologie autonome. L’autorisation a été élargie par l’administration californienne des véhicules à moteur, mais l’entreprise indique qu’elle n’est pas encore prête à lancer immédiatement ces essais.

    Un permis mis à jour pour des véhicules Lucid Gravity

    Le California Department of Motor Vehicles (DMV) confirme avoir modifié le permis de Nuro afin d’y inclure les véhicules Lucid Gravity. Jusqu’ici, la couverture du permis « driverless » visait un autre type d’activité, centrée sur un véhicule de livraison à faible vitesse.

    Avec cette mise à jour, Nuro peut tester ces robotaxis en mode autonome sans opérateur de sécurité au volant. Selon un porte-parole de l’entreprise, les essais « sans conducteur » devraient commencer plus tard dans l’année, sans précision supplémentaire sur le calendrier.

    Des étapes réglementaires supplémentaires avant un service de robotaxis

    L’obtention de ce permis constitue une étape, mais elle ne suffit pas à elle seule pour déployer un service commercial. Avant tout lancement, Nuro devra encore obtenir d’autres autorisations auprès des autorités californiennes, notamment pour la mise en place d’un service de transport autonome et pour le déploiement opérationnel.

    En attendant, Nuro et Uber testent actuellement les véhicules Lucid en conditions autonomes, avec un opérateur de sécurité présent dans l’habitacle.

    Uber renforce sa collaboration autour des robotaxis Lucid

    Parallèlement à ces avancées techniques et réglementaires, Uber a fait évoluer son engagement financier lié à Lucid. Le partenariat annoncé prévoit des investissements supplémentaires et l’acquisition de grands volumes de véhicules préparés pour l’usage en robotaxi, avec des ajustements portant à la fois sur les modèles et sur le nombre total de véhicules concernés.

    Les robotaxis Lucid Gravity destinés à ces tests embarqueront les systèmes d’autonomie de Nuro, reposant notamment sur l’ordinateur Nvidia Drive AGX Thor. Le véhicule est annoncé équipé de capteurs destinés à la perception de l’environnement (caméras haute résolution, lidar à l’état solide et radars), afin d’améliorer la capacité du système à fonctionner dans des conditions réelles.

    Vers des opérations commerciales : une échéance à encadrer

    Lucid indique être en ligne pour démarrer des opérations commerciales de robotaxis à la fin 2026. Toutefois, les conditions exactes d’exploitation dépendront des validations réglementaires, ce qui peut conduire à des limites (par exemple une exploitation non totalement « sans conducteur » ou géographiquement restreinte).

    De son côté, l’entreprise continue de mener des essais et d’accumuler des données en plusieurs villes aux États-Unis, en parallèle du calendrier de certification.

    Analyse : un progrès, mais pas encore le passage au « zéro conducteur »

    L’autorisation du DMV élargit clairement le champ des tests de Nuro, en rapprochant l’objectif d’une conduite autonome sans opérateur humain dans le véhicule. Néanmoins, le fait que l’entreprise annonce un démarrage « plus tard dans l’année » rappelle que les changements réglementaires ne garantissent pas, à eux seuls, un basculement immédiat vers un mode d’essai totalement autonome. Avant toute mise en service, le calendrier dépendra aussi des autres permis requis et de la validation progressive du système en conditions réelles.

    Dans une logique de suivi des actualités mobilité et technologies embarquées, certains professionnels peuvent aussi s’équiper de solutions d’acquisition vidéo 4K pour analyser des données de capteurs et des flux caméra lors de campagnes de test. D’autres équipes utilisent parfois des stations de charge USB-C multiports haute puissance pour maintenir l’autonomie de leurs équipements de mesure et de contrôle pendant les déploiements terrain.

  • Président d’OpenAI contraint de lire ses journaux intimes personnels devant le jury

    Président d’OpenAI contraint de lire ses journaux intimes personnels devant le jury



    Au cours d’un procès, des passages du journal personnel de Greg Brockman, président d’OpenAI, ont été lus devant la cour. Les notes, rédigées entre 2015 et 2023, couvrent plusieurs années décisives pour l’entreprise, depuis ses débuts jusqu’à des épisodes internes ayant opposé certains dirigeants autour des enjeux de sécurité liés à l’intelligence artificielle.

    Des écrits utilisés pour questionner ses motivations

    Les éléments évoqués par l’accusation visent notamment à dresser un portrait défavorable de Brockman. L’un des arguments avancés est que, très tôt, ses notes auraient reflété un intérêt limité pour la mission initiale d’OpenAI, et davantage tourné vers l’obtention de gains personnels.

    Face à cette lecture, Brockman doit convaincre les juges que ces extraits ne prouvent pas l’appât du profit, mais plutôt une réflexion attentive et structurée, cohérente avec son engagement pour la plateforme et sa mission.

    Une stratégie d’interrogatoire centrée sur des passages précis

    Son interrogation a notamment consisté à faire correspondre des citations tirées du journal avec des décisions et des débats internes d’OpenAI. L’avocat de Musk, Steven Molo, a ainsi cherché à isoler des formulations jugées révélatrices et à obtenir des explications directes.

    Un exemple cité renvoie à une note rédigée en 2017. À cette période, Brockman avait déjà évoqué le fait que Musk aurait posé un ultimatum : soit Musk obtenait un contrôle accru sur une branche à but lucratif, soit l’organisation resterait une structure à but non lucratif.

    Dans l’extrait mis en avant, Brockman laisse apparaître une formulation pouvant être interprétée comme une préférence pour la perspective de revenus, évoquant l’idée de “basculer” vers une forme plus lucrative, tout en indiquant que “faire de l’argent pour nous” semblait “plaisant”.

    Liens avec la valorisation et la participation de Brockman

    Les échanges ont aussi porté sur l’évolution financière de la position de Brockman. Après la création, en 2018, d’une structure à but lucratif, sa participation aurait pris une ampleur considérable. Son enjeu personnel est au cœur des questions : il est notamment fait référence à l’importance de sa rémunération indirecte via des parts, et à sa capacité à justifier l’ampleur de son gain.

    À plusieurs reprises, l’avocat a cherché à relier ces gains aux formulations présentes dans le journal. Brockman a répondu en mettant en avant le calendrier : selon lui, son intérêt financier serait antérieur à l’explosion de la valeur liée à l’essor public d’OpenAI, particulièrement après la sortie de ChatGPT.

    Argument de comparaison et remise en contexte

    À un moment tendu, l’avocat aurait employé une comparaison pour illustrer sa thèse. L’idée avancée serait qu’une personne minimiserait l’ampleur d’une “perte” de référence, tout en bénéficiant d’une situation financière bien plus large. L’échange a servi à souligner le décalage entre ce que certains extraits de journal semblent montrer, et le récit que Brockman cherche à imposer devant la cour.

    Dans sa défense, Brockman insiste sur l’effort collectif et la croissance de la composante à but non lucratif, ainsi que sur l’absence, selon lui, d’intention mercantile dominante au début de l’aventure.

    Le rôle déterminant de l’interprétation

    Au-delà des citations, le procès met en lumière une question centrale : comment interpréter un journal personnel, rédigé dans un contexte de discussions internes et d’incertitudes stratégiques ? Les juges devront arbitrer entre une lecture “à charge”, centrée sur certaines formulations, et une lecture “contextuelle”, qui insiste sur l’évolution des priorités et sur la cohérence globale du parcours de Brockman.

    Les passages retenus ne sont pas seulement des phrases isolées : ils sont utilisés comme indices pour établir, ou contester, l’existence d’une intention. Dans ce type de dossier, la valeur probante dépend souvent de la capacité à remettre chaque extrait dans son contexte.

    Pour suivre plus efficacement des audiences et analyses, certains lecteurs se tournent vers des outils de prise de notes numériques, comme un lecteur de notes sur écran E Ink afin de structurer les informations sans surcharger l’interface. D’autres privilégient une clavier mécanique sans fil pour conserver un confort d’écriture lors de synthèses longues.

  • « Je pensais qu’Elon Musk allait me frapper », affirme Greg Brockman, d’OpenAI

    « Je pensais qu’Elon Musk allait me frapper », affirme Greg Brockman, d’OpenAI


    En 2017, Greg Brockman et Ilya Sutskever, deux figures d’OpenAI, se sont retrouvés au « haunted mansion » d’Elon Musk, une vaste propriété dans la région de San Francisco, afin de discuter de l’avenir de l’entreprise. Amber Heard, alors compagne de Musk, aurait accueilli le groupe avec un service de whisky avant de quitter les lieux. Quelques éléments ressortent aujourd’hui de ce qui a été raconté en audience : des échanges tendus, une négociation autour d’une éventuelle structure commerciale, et un désaccord profond sur la place à donner à Musk dans la direction stratégique.

    Une négociation sous tension autour du contrôle

    Selon Greg Brockman, la rencontre a commencé dans un climat que lui et Sutskever ont perçu comme ambivalent. Musk aurait notamment offert des voitures Tesla Model 3 aux deux responsables d’OpenAI, geste que Brockman interprète comme une manière de « mettre l’autre en situation de dette ». De son côté, Sutskever aurait répondu avec un dessin représentant Tesla.

    Le cœur du différend portait sur la création d’une branche à but lucratif destinée à attirer des investissements massifs, notamment pour financer des moyens de calcul. Musk aurait aussi demandé un contrôle direct sur cette nouvelle structure. Brockman et Sutskever se seraient opposés à une forme de contrôle qu’ils jugeaient susceptible de prendre la forme d’une « dictature » sur l’avenir du développement de l’intelligence artificielle, préférant un mécanisme de gouvernance partagé.

    Le désaccord aurait atteint un point de rupture : Brockman a relaté qu’après leur proposition de contrôle conjoint, Musk se serait levé et aurait tourné autour de la table, au point que Brockman dit avoir pensé qu’il allait le frapper physiquement. Toujours d’après Brockman, Musk aurait emporté le tableau offert et indiqué qu’il couperait son financement à l’organisation à but non lucratif si les deux hommes refusaient de céder. La suite aurait toutefois comporté de nouveaux échanges.

    « Ce n’est pas fini » : la reprise des discussions

    Dans son témoignage, Brockman affirme qu’il a reçu, dans la soirée, un appel de Shivon Zilis, alors proche de Musk. L’objectif était de signifier que la négociation n’était pas terminée et qu’il existait encore des scénarios de futur intégrant Brockman et Sutskever.

    Ce récit est présenté par OpenAI comme un exemple de schémas qu’ils attribuent à un comportement jugé imprévisible de Musk, susceptible, selon eux, d’affaiblir la crédibilité de ses positions dans le différend. En face, Musk soutient que ses dons à OpenAI auraient été détournés ou « abusés » par des responsables de la structure à but non lucratif, avant que l’activité ne prenne la forme d’une entreprise fortement valorisée. Les parties concernées contestent mutuellement les accusations.

    Une vision de l’IA trop « incrédible » pour Brockman

    Brockman a également évoqué un épisode antérieur destiné à expliquer pourquoi il estime que Musk ne correspondait pas, selon lui, au rôle de contrôle qu’il revendiquait. Il rapporte que l’équipe d’OpenAI avait présenté à Musk une première version d’un système de discussion, qui ne produisait pas de réponses satisfaisantes. Brockman raconte que Musk aurait alors minimisé la technologie, estimant qu’un enfant sur internet pourrait faire mieux.

    D’après Brockman, le chercheur Alec Radford aurait été profondément affecté au point de ne presque plus vouloir poursuivre dans le domaine. Pour Brockman, le fait que Musk n’ait pas su entrevoir le potentiel d’une technologie encore immature — qui servira plus tard de base à des produits comme ChatGPT — rendrait, selon lui, Musk peu apte à diriger une entreprise liée à l’IA. « Il fallait un peu rêver », aurait-il résumé.

    Jeux de gouvernance et perspectives d’exclusion

    Dans la suite de son témoignage, Brockman indique que, durant plusieurs mois de négociations avec Musk autour d’une branche commerciale, lui, Ilya Sutskever et Sam Altman ont envisagé de voter l’exclusion de Musk du conseil d’administration d’OpenAI. Ils se seraient réunis pour discuter d’alternatives et de choix de financement, mais sans parvenir à un alignement clair sur la marche à suivre. Malgré l’idée d’une suppression de Musk, Brockman et Sutskever auraient fini par estimer que l’exclure « était une mauvaise idée ». Finalement, Musk se serait retiré de lui-même en considérant qu’OpenAI se dirigeait vers un échec.

    Enfin, Brockman affirme que Shivon Zilis, à l’époque conseillère, l’aurait tenu informé des évolutions futures liées au projet. Il la décrit comme une forme de relais, tout en précisant que leur relation remonte au début des années 2010.

    À travers ces éléments, l’audience met surtout en lumière un conflit de gouvernance : la question de savoir qui doit décider, à quel rythme, et avec quelles garanties pour l’orientation scientifique et stratégique. Au-delà des arguments juridiques, le témoignage insiste sur l’écart entre des visions concurrentes de ce que doit être l’avenir d’une organisation construite autour de l’intelligence artificielle.

    Pour suivre l’évolution des technologies évoquées dans ce type de conflits, beaucoup s’appuient aussi sur des outils de productivité et d’accès à l’information. Par exemple, un clavier Bluetooth pour tablette peut être utile pour annoter rapidement des documents et retranscriptions. De même, un disque SSD portable de 1 To aide à stocker et organiser des fichiers volumineux liés à la recherche.

  • Selon des informations, Anthropic accepterait de verser 200 milliards de dollars à Google pour des puces et un accès au cloud

    Selon des informations, Anthropic accepterait de verser 200 milliards de dollars à Google pour des puces et un accès au cloud


    Les géants du cloud et du matériel poursuivent leurs paris sur l’intelligence artificielle. Selon des informations relayées dans la presse spécialisée, Anthropic aurait accepté un accord avec Google prévoyant, sur cinq ans, le versement de 200 milliards de dollars pour sécuriser l’accès à des capacités de calcul et à des ressources cloud destinées à soutenir le développement et l’exécution des modèles de type Claude.

    Un accord à très forte valeur pour sécuriser la puissance de calcul

    Ce type de contrat illustre une réalité du secteur : l’IA dépend étroitement de l’accès à des infrastructures coûteuses, notamment des serveurs et des puces spécialisées. Dans ce contexte, un engagement financier aussi élevé vise moins à “acheter ponctuellement” qu’à garantir une disponibilité et une capacité de montée en charge sur la durée.

    Google se retrouve ainsi au centre d’un modèle de revenus fondé sur l’anticipation des besoins des acteurs de l’IA. Pour Anthropic, l’enjeu est de réduire l’incertitude liée à la disponibilité du matériel et à la capacité des data centers, deux facteurs déterminants pour entraîner des modèles performants et répondre à la demande.

    Une tendance générale : la course aux infrastructures

    Les accords entre fondeurs, cloud providers et laboratoires d’IA se multiplient. La presse évoque l’idée d’un “retard” de revenus accumulé par plusieurs grands acteurs du secteur, alimenté par des engagements financiers de grande ampleur avec des entreprises positionnées sur les modèles génératifs.

    Cette dynamique s’observe aussi côté puces, où certains fabricants investissent directement dans l’écosystème IA afin d’anticiper la demande en centres de données. L’objectif commun est de verrouiller la chaîne de valeur : production des puces, accès au cloud, et déploiement des modèles.

    Des investissements lourds, mais des tensions structurelles

    Le secteur fait face à des contraintes physiques et économiques. Les data centers exigent une quantité significative d’énergie, de refroidissement et de ressources matérielles, dans un environnement où la demande en calcul accélère les tensions. La question du coût de la mémoire et plus largement de la disponibilité des composants reste également centrale, avec un impact potentiel sur les marges et sur la vitesse d’industrialisation.

    Ces “boucles” d’investissements peuvent soutenir la croissance à court terme, mais elles soulèvent aussi des interrogations sur la soutenabilité : à mesure que les infrastructures deviennent plus chères, la viabilité économique dépendra davantage du niveau de monétisation des services IA et de l’efficacité des architectures de calcul.

    Ce que cela change pour l’industrie

    À court terme, ce type d’accord peut renforcer la capacité d’Anthropic à produire et à déployer ses modèles dans des conditions plus prévisibles. À moyen terme, il contribue à structurer un marché où l’accès à l’infrastructure devient un avantage stratégique aussi important que la recherche.

    Pour les observateurs, l’enjeu est de suivre deux indicateurs : l’évolution des coûts d’exploitation des modèles et la façon dont les acteurs du cloud et des puces répercutent ces investissements sur leurs offres.

    Repères d’équipement pour les usages professionnels

    Pour les équipes qui travaillent sur des environnements de calcul, la question de la fiabilité et de la capacité réseau/stockage reste déterminante. Par exemple, un NAS professionnel à deux baies peut aider à organiser les données et les sauvegardes en attendant des déploiements plus larges côté cloud. De même, un routeur d’entreprise Wi‑Fi 6E peut améliorer la stabilité des transferts lorsque des ressources distantes sont sollicitées au quotidien.

  • Apple versera 250 millions de dollars pour des retards de Siri alimenté par l’IA

    Apple versera 250 millions de dollars pour des retards de Siri alimenté par l’IA



    Apple va verser 250 millions de dollars pour mettre fin à un recours collectif aux États-Unis. La procédure concerne des acheteurs d’iPhone qui estiment avoir été trompés par la promesse d’une version de Siri plus “personnalisée” et capable d’agir à partir du contenu affiché sur l’appareil, annoncée autour d’Apple Intelligence, mais finalement livrée avec un retard important.

    Un compromis après des retards sur Siri “alimenté par l’IA”

    Selon la proposition de règlement, Apple aurait communiqué sur une mise à disposition en 2024. Or, la nouvelle mouture de Siri n’a pas été déployée “presque deux ans” après son annonce, tandis qu’une partie des fonctions associées à Apple Intelligence a été introduite progressivement entre 2024 et 2025. Le grief central porte sur l’absence de livraison de Siri capable de comprendre le contexte présent sur l’iPhone et de déclencher des actions au sein des applications.

    Le règlement, s’il est approuvé par un juge, couvrirait un groupe incluant notamment des acheteurs américains des iPhone 16 et iPhone 15 Pro. Les bénéficiaires pourront obtenir une compensation financière liée à l’attente d’une mise à jour Siri annoncée au moment de l’achat.

    Une reconnaissance de faute non exigée

    Dans le détail du compromis, Apple ne serait pas tenue de reconnaître une responsabilité pour la publicité autour de fonctions d’IA qui n’auraient pas été livrées dans les délais annoncés. Ce point est notable, car il limite l’impact juridique et symbolique pour l’entreprise tout en prévoyant une indemnisation pour les consommateurs.

    Des publicités retirées et une nouvelle trajectoire annoncée

    Après qu’Apple a informé d’un report de la mise à jour de Siri, l’entreprise a retiré des publicités diffusées avant le lancement de l’iPhone. D’après les éléments évoqués dans le dossier, Apple a longtemps laissé comprendre une disponibilité liée à Apple Intelligence, alors que la fonctionnalité la plus attendue, celle de Siri plus contextualisé, n’était pas encore prête.

    Apple indique désormais viser une arrivée “cette année” du nouveau Siri, notamment grâce à un partenariat permettant d’intégrer des modèles d’IA de Google, ce qui devrait soutenir l’implémentation des capacités annoncées. La nouvelle version de Siri serait accompagnée d’autres évolutions attendues dans une prochaine version d’iOS.

    Ce que cela change pour les utilisateurs

    Au-delà du volet judiciaire, cette affaire souligne la difficulté, pour les constructeurs, d’aligner la communication marketing sur la réalité des calendriers technologiques, surtout quand des fonctionnalités d’IA dépendent d’infrastructures, d’optimisations logicielles et d’intégrations en profondeur.

    • Pour les acheteurs concernés, le règlement prévoit une forme de compensation liée à l’écart perçu entre promesse et livraison.
    • Pour l’écosystème iPhone, la réussite de la mise à jour dépendra de la capacité à déployer Siri sans nouveaux décalages.
    • Pour le marché, l’épisode renforce l’attention portée aux annonces de fonctionnalités “AI” et à leur timing.

    En pratique, si vous suivez l’évolution de Siri, il peut être utile de disposer d’une bonne batterie externe pour accompagner une utilisation intensive (réglages, mise à jour système, indexation). Par exemple, vous pouvez regarder une batterie externe USB‑C avec charge rapide pour rester autonome au quotidien.

    Enfin, pour ceux qui privilégient le confort de prise en main lors des usages liés à l’IA (dictée, commandes vocales, navigation), un étui compatible MagSafe ou avec bon grip peut améliorer l’expérience, surtout lors d’une utilisation prolongée.

  • Valve Publie Les Fichiers De Conception De Sa Manette Steam En Rupture De Stock

    Valve Publie Les Fichiers De Conception De Sa Manette Steam En Rupture De Stock


    Valve a choisi de prolonger l’attention autour de son Steam Controller en rendant disponibles des fichiers de conception liés à son habillage. Une initiative qui vise à faciliter la création d’accessoires et de pièces externes, tout en précisant les limites techniques du partage.

    Des fichiers CAD pour le boîtier, sous licence ouverte

    Valve a publié les fichiers de conception du châssis (la coque) du Steam Controller. Ils peuvent être récupérés gratuitement et distribués sous une licence Creative Commons, ce qui autorise la conception et la fabrication d’accessoires pensés autour de l’interface externe du périphérique.

    Concrètement, l’objectif est de permettre à des fabricants et à des passionnés d’adapter l’apparence et certaines fonctionnalités liées au format du contrôleur, sans devoir repartir de zéro à partir de mesures approximatives.

    Ce qui n’est pas inclus : pas de conception complète “du cœur” du contrôleur

    Valve précise toutefois que ces fichiers concernent uniquement l’extérieur du dispositif. Les éléments internes ne sont pas fournis via ces ressources, ce qui signifie qu’il n’est pas possible de reconstruire entièrement un Steam Controller à partir des seuls fichiers publiés.

    Pour les personnes qui cherchent à s’en procurer un, la disponibilité peut rester un sujet, puisque le modèle a déjà connu des ruptures. Dans ce contexte, l’accès aux fichiers du boîtier peut aussi intéresser ceux qui disposent déjà du contrôleur et veulent personnaliser sa coque.

    Un geste qui encourage la personnalisation

    Au-delà de la logistique produit, la démarche reflète une volonté de soutenir une communauté capable de concevoir des accessoires adaptés. Si l’idée de modifier la coque séduit, elle reste cohérente avec la stratégie d’ouverture autour de certains matériels Steam.

    Pour accompagner une éventuelle personnalisation, certains bricoleurs se tournent vers des solutions de fixation et d’adaptateurs pour accessoires, par exemple des produits comme un pied à coulisse numérique pour relever précisément des dimensions avant de créer une coque sur mesure, ou des inserts filetés à chaud afin de rendre les modifications plus solides et durables.

    En rendant accessibles les fichiers de l’habillage, Valve donne aux créateurs une base exploitable pour des projets de design, tout en conservant le contrôle sur l’architecture interne du contrôleur.

  • Un plan pour utiliser l’IA afin de renforcer la démocratie

    Un plan pour utiliser l’IA afin de renforcer la démocratie


    Les technologies ont toujours influencé la façon dont les citoyens accèdent à l’information et l’utilisent. Un nouvel acteur s’apprête toutefois à modifier en profondeur cet équilibre : les agents d’intelligence artificielle capables d’effectuer des recherches, de rédiger des messages, de sélectionner des causes et même d’intervenir au nom de l’utilisateur. Dans ce scénario, l’IA ne se contente plus d’informer ; elle commence à médiatiser la relation entre les individus et les institutions qui régissent la vie publique, y compris sur des décisions civiques aussi concrètes que le vote sur des mesures locales, le soutien à certaines organisations ou la réponse à des démarches administratives.

    Quand l’IA optimise sans comprendre

    Le risque central rappelle celui observé sur les réseaux sociaux : lorsque des systèmes algorithmiques visent principalement l’engagement plutôt que la compréhension, ils peuvent alimenter polarisation et radicalisation. Même sans objectif politique explicite, un agent conçu pour rester “utile” et maintenir l’attention peut renforcer les biais et amplifier les inquiétudes déjà présentes chez l’utilisateur. Le problème se double d’un enjeu de confiance : l’agent peut se présenter comme un avocat, parler “pour” l’utilisateur et agir en son nom. Cette proximité rend parfois plus difficile la détection des effets indésirables.

    Des effets collectifs difficiles à anticiper

    Au-delà de l’individu, se pose une question de dynamique collective. Des agents d’IA et des humains pourraient bientôt interagir dans les mêmes espaces, au point que leur nature soit difficile à distinguer. Même si chaque agent individuel était rigoureusement aligné sur les intérêts de son propriétaire et conçu sans biais, les interactions à grande échelle peuvent produire des résultats que personne n’aurait volontairement choisis. Les études sur l’émergence de biais à l’échelle collective suggèrent que des biais peuvent apparaître lorsque des systèmes agissent en parallèle sur de vastes populations.

    Il existe aussi un effet plus subtil : un espace public où chacun dispose d’un agent personnalisé, constamment ajusté à ses préférences, peut se transformer en une juxtaposition de “mondes privés”. Chaque univers peut rester cohérent à l’intérieur, tout en devenant moins propice à la délibération partagée que la démocratie exige.

    Trois transformations qui redessinent la citoyenneté

    Pris ensemble, ces changements — la manière dont les personnes obtiennent l’information, la manière dont elles agissent et la manière dont elles participent à la gouvernance collective — modifient la “texture” même de la citoyenneté. Dans un futur proche, les opinions politiques peuvent être formées via des filtres d’IA, l’action civique peut passer par des agents et les discussions publiques peuvent être influencées par les interactions de millions de systèmes.

    Or les institutions démocratiques ont été pensées pour un contexte où la réalité semblait plus partagée, même imparfaitement : le pouvoir s’exerçait de façon visible, l’information circulait plus lentement et pouvait davantage être contestée. La difficulté ne tient pas seulement à l’arrivée de l’IA générative ; elle s’inscrit dans une tendance plus ancienne de fragilisation. La question devient alors : comment éviter une trajectoire de déclin et organiser l’outil pour construire quelque chose de mieux.

    Un cadre pour renforcer la démocratie

    Pour orienter ces technologies vers un objectif démocratique, plusieurs priorités s’imposent, notamment sur le plan de l’information.

    • Sur la couche informationnelle, les entreprises d’IA doivent intensifier leurs efforts pour améliorer la fiabilité des sorties : limiter les erreurs, améliorer la vérification et renforcer la capacité à produire des réponses fondées sur des éléments vérifiables.

    • Parallèlement, elles peuvent explorer des pistes encourageantes suggérant que certains modèles peuvent contribuer à réduire la polarisation — à condition d’évaluer rigoureusement les effets et d’en assurer la transparence.

    Des évaluations de terrain indiquent, dans un contexte précis, que des notes de fact-checking rédigées avec l’aide de systèmes d’IA peuvent être perçues comme plus utiles par des publics aux sensibilités diverses que celles produites par des humains. Les résultats restent à confirmer et nécessitent des analyses approfondies, notamment pour comprendre comment les systèmes hiérarchisent les sources et justifient leurs affirmations. Une transparence accrue sur ces mécanismes pourrait aider à renforcer la confiance publique.

    Dans la pratique, la façon dont les institutions et les médias encadrent ces outils compte autant que les performances techniques. L’enjeu est de maintenir des repères communs, de favoriser la contestabilité des informations et de réduire les écarts entre perceptions individuelles.

    Pour les organisations qui testent des systèmes d’IA à usage documentaire et de vérification, des solutions de productivité peuvent aider à organiser les flux de travail (collecte, synthèse, traçabilité). Par exemple, un clavier ergonomique et poste de travail peut faciliter la manipulation de documents et la revue attentive des sources lors de processus de vérification interne. De même, pour structurer et archiver des contenus, l’outil doit rester au service d’une méthode ; un disque SSD externe peut contribuer à conserver des versions et des preuves de travail lors d’évaluations internes, même si ce n’est pas un dispositif de “preuve” en soi.

    En définitive, renforcer la démocratie avec l’IA exige une approche prudente : améliorer la vérité et la transparence, limiter les effets de polarisation, et concevoir les usages pour préserver des espaces communs de délibération. Sans ce travail de conception, les agents intelligents risquent de transformer la sphère publique en mosaïque de bulles cognitives, avec des conséquences difficiles à corriger une fois installées.

  • L’interruption de grossesse par téléconsultation reste possible sans mifepristone

    L’interruption de grossesse par téléconsultation reste possible sans mifepristone


    Aux États-Unis, l’accès aux médicaments utilisés pour provoquer une interruption de grossesse par téléconsultation reste incertain. Après une décision de justice fédérale ayant rétabli une exigence d’obtention en personne pour la mifepristone, certains organismes ont prévenu que les patientes pourraient hésiter à recourir à la télémédecine. Toutefois, plusieurs acteurs indiquent qu’un traitement par misoprostol seul demeure possible, offrant une alternative lorsque la combinaison habituelle n’est pas accessible.

    Une décision qui fragilise la télésanté autour de la mifepristone

    Le week-end a été marqué par des demandes répétées auprès de l’organisme Carafem, après qu’une cour d’appel a réinstauré l’obligation de recevoir la mifepristone en personne. Cette molécule fait partie du schéma le plus couramment utilisé pour les avortements médicamenteux, qui combine ensuite un second médicament, le misoprostol. Pour les patientes, la perspective d’une restriction liée à la voie d’obtention a suscité de l’inquiétude, certains craignant de ne plus pouvoir suivre une procédure via téléconsultation.

    Un plan de secours : le misoprostol en monothérapie

    Face à la contrainte, Carafem a annoncé un ajustement rapide : au lieu de prescrire le protocole en deux médicaments, l’organisation a commencé à prescrire le misoprostol seul. Bien que l’efficacité soit légèrement inférieure à celle de la combinaison, cette option est utilisée depuis longtemps et reste compatible avec la pratique clinique lorsque la mifepristone n’est pas disponible.

    D’autres structures, dont des centres affiliés à Planned Parenthood, ont également indiqué avoir basculé vers le misoprostol seul pour continuer à garantir l’accès aux soins. Les responsables insistent sur le fait que l’avortement médicamenteux demeure sûr et légal, tout en soulignant l’importance d’une information claire pour limiter la confusion.

    Une pause temporaire accordée par la Cour suprême

    Le lundi suivant, la Cour suprême des États-Unis a accordé un sursis temporaire : le jugement de la cour d’appel est suspendu pendant une semaine, ce qui permettrait à certaines patientes de continuer à obtenir la mifepristone via des services virtuels au moins jusqu’au 11 mai. Les organisations concernées affirment toutefois être prêtes à revenir au misoprostol seul si la restriction devait perdurer.

    Pourquoi le misoprostol est une alternative souvent retenue

    La mifepristone a fait l’objet d’études approfondies et a été approuvée par les autorités américaines en 2000. Après la décision d’étendre la distribution par voie postale durant la pandémie, l’autorité sanitaire a ensuite assoupli durablement l’exigence d’obtention en personne, avant que les contentieux récents ne remettent la question au centre du débat.

    Le misoprostol, lui, a été développé initialement pour d’autres usages médicaux et est employé pour l’avortement médicamenteux depuis la fin des années 1980. Dans de nombreux contextes, notamment là où la mifepristone est difficile d’accès, ce traitement est une option principale.

    Des associations de professionnels de santé et des organisations internationales estiment que le misoprostol seul constitue une stratégie validée lorsque la mifepristone ne peut pas être utilisée. En pratique, le choix du protocole dépend de la disponibilité des médicaments et des cadres réglementaires en vigueur.

    Matériel et suivi : des besoins concrets pour les soins à distance

    Au-delà du médicament, les parcours de télésanté impliquent souvent une prise d’informations médicale, un suivi des symptômes et, selon les cas, l’accès à certains outils de surveillance. Pour certaines personnes, disposer d’un thermomètre numérique peut faciliter le suivi de la température en cas d’inconfort après la prise (sans remplacer l’avis clinique). Un coussin chauffant électrique peut aussi contribuer au soulagement des crampes, dans une démarche d’accompagnement au domicile.

    Un dossier encore mouvant

    La possibilité d’avorter par téléconsultation ne dépend donc pas uniquement de la mifepristone : lorsque l’accès à cette molécule est restreint, certains prestataires indiquent pouvoir maintenir une prise en charge grâce au misoprostol seul. Néanmoins, la situation juridique évolue, et les patientes sont confrontées à des changements rapides susceptibles d’affecter le calendrier et les modalités d’accès.

  • Google Home : nouvel assistant vocal Gemini et commandes améliorées pour la caméra

    Google Home : nouvel assistant vocal Gemini et commandes améliorées pour la caméra



    Google poursuit la refonte de Google Home autour de Gemini. La mise à jour annoncée vise surtout à améliorer l’expérience avec les caméras connectées, tout en renforçant l’assistant vocal, afin de rendre les commandes plus simples et plus fiables au quotidien.

    Des flux de caméras plus faciles à consulter

    Parmi les changements les plus attendus, Google indique que la navigation dans les flux vidéo sera simplifiée. L’objectif est de réduire les frictions lors de la consultation de l’historique et de l’examen des événements liés aux caméras.

    Dans le même mouvement, l’étiquetage des événements basé sur l’intelligence artificielle devrait être plus direct. Autrement dit, les occurrences repérées par le système devraient être plus faciles à interpréter, notamment pour distinguer rapidement ce qui relève d’un événement pertinent.

    Gemini 3.1 dans Google Home : un assistant vocal plus robuste

    Google déploie Gemini 3.1 pour l’assistance vocale sur Google Home. L’entreprise affirme que ce passage permettra à l’assistant de mieux comprendre et d’exécuter des commandes vocales plus longues ou plus complexes, notamment lorsqu’elles comportent plusieurs étapes.

    Google suggère aussi que Gemini 3.1 apporte des progrès dans le traitement de consignes étendues et difficiles. Dans les faits, cela pourrait se traduire par une meilleure gestion de demandes combinant plusieurs actions, limitant la nécessité de morceler les instructions.

    Le déploiement est d’abord lié à l’accès anticipé, et Google précise que tous les utilisateurs ne reçoivent pas forcément la mise à jour au même moment.

    Extension de « Ask Home » et arrivée sur l’interface web

    Google annonce par ailleurs l’élargissement de la fonctionnalité « Ask Home », jusque-là centrée sur l’application. À terme, l’assistant basé sur Gemini devrait être accessible via l’interface web de Google Home.

    Google évoque notamment la possibilité de discuter avec le chatbot pour consulter l’historique des caméras, et pour aider à créer des automatisations. Cette évolution démarrera sous forme de fonctionnalité expérimentale.

    Ce que cela change concrètement pour les foyers équipés

    Pour les utilisateurs de domotique, l’enjeu principal est la fluidité : retrouver plus rapidement ce qui s’est passé, mieux interpréter les alertes et limiter les incompréhensions lors de commandes vocales plus élaborées. Les améliorations annoncées vont dans ce sens, même si l’impact réel dépendra des modèles de caméras et des usages de chacun.

    • Accès plus clair aux flux et événements vidéo
    • Commande vocale potentiellement plus fiable sur des tâches en plusieurs étapes
    • Contrôle et recherche assistés sur l’interface web, en phase pilote

    Si vous souhaitez compléter un écosystème caméra/maison connectée, certains utilisateurs misent sur des caméras compatibles Google Home, par exemple une caméra intérieure Google Nest ou une caméra extérieure pour Google Home, selon l’emplacement et les besoins de surveillance.

  • Le dossier du procès Musk c. Altman : l’intelligence artificielle au service de la démocratie

    Le dossier du procès Musk c. Altman : l’intelligence artificielle au service de la démocratie


    La semaine écoulée a été marquée par deux récits qui, à première vue, n’ont rien en commun : le déroulement d’un procès très scruté entre Elon Musk et Sam Altman, et la montée en puissance d’une réflexion plus large sur l’usage de l’intelligence artificielle au service de la démocratie. D’un côté, l’audience donne des éléments sur la manière dont les acteurs du secteur fonctionnent et interagissent ; de l’autre, des propositions tentent d’anticiper les effets d’une IA appelée à façonner la façon dont les citoyens se forment des opinions et participent à la vie politique.

    Dans la salle d’audience : premiers éléments du procès Musk contre Altman

    Un compte rendu détaillé a mis en lumière les temps forts de la première semaine du procès. Le déroulé des audiences a notamment permis de mieux comprendre la dynamique entre les parties et la façon dont certains arguments sont présentés, au-delà des déclarations publiques.

    Le récit insiste aussi sur l’ambiance des échanges et sur les nouveaux détails qui émergent au fil des comparutions, tout en rappelant que les premières semaines ne tranchent pas à elles seules les questions centrales du litige. Les prochains jours devraient donc être déterminants pour clarifier davantage les faits mis en discussion et la portée de certaines allégations.

    Une question de fond : comment l’IA influence déjà la vie démocratique

    Parallèlement, un autre sujet gagne du terrain : l’idée que l’IA devient, plus vite qu’on ne l’imagine, une interface majeure à travers laquelle les individus se construisent des convictions et participent au débat public. Cette évolution comporte des risques évidents : elle pourrait accentuer la fragilité de certaines institutions et rendre plus difficile la vérification des informations.

    Mais elle ouvre aussi des pistes. En théorie, des outils bien conçus pourraient contribuer à limiter certains effets de la polarisation, faciliter l’accès à des informations de qualité et soutenir l’engagement civique. La différence se joue sur le design : ce ne sont pas seulement les capacités techniques de l’IA qui comptent, mais aussi les choix concrets effectués en amont.

    Adapter l’IA à des objectifs démocratiques : les leviers à privilégier

    Les propositions autour de l’« IA pour la démocratie » reposent sur l’idée qu’il faut cadrer l’usage de ces systèmes, plutôt que de laisser l’écosystème évoluer uniquement sous la pression du marché. Plusieurs axes reviennent :

    • Transparence : rendre explicites les mécanismes qui influencent la production et la diffusion de contenus.

    • Contrôle et évaluation : tester l’impact réel sur les comportements d’information, sans se limiter aux performances techniques.

    • Conception centrée sur l’intérêt public : viser des usages qui réduisent la confusion et améliorent la qualité du débat.

    Dans ce contexte, on comprend mieux pourquoi les discussions autour de la responsabilité des acteurs de l’IA — y compris sur le plan juridique — ne sont pas seulement des affaires internes au secteur. Elles touchent directement la confiance, l’accès aux contenus et, in fine, l’équilibre du débat démocratique.

    Des « scientifiques artificiels » en ligne de mire

    Enfin, une tendance technologique façonne l’horizon : celle d’outils qui ne se contenteraient plus d’assister ponctuellement les chercheurs, mais chercheraient à agir comme membres à part entière d’une équipe scientifique. Les objectifs décrits vont de l’aide à la recherche documentaire et à la rédaction, jusqu’à des systèmes capables de conduire des phases de travail plus complètes dans un projet.

    Dans la pratique, cette ambition soulève des questions méthodologiques : comment garantir la robustesse des résultats, la reproductibilité, et l’évaluation indépendante des découvertes produites ou guidées par l’IA ? Ces sujets seront probablement au cœur des expérimentations, mais aussi des débats sur la manière d’intégrer ces systèmes dans les processus de décision.

    Deux outils utiles pour suivre et organiser l’information

    Pour qui souhaite suivre l’actualité technologique et juridique sans se perdre dans le flux, un bon environnement de lecture peut aider à structurer les informations. Un carnet de prise de notes papier peut aussi servir à synthétiser rapidement les points clés et les questions restées ouvertes. Pour la collecte d’articles et de références, un scanner portable permet de conserver des documents importants sous forme numérique, facilitant la relecture et la comparaison.