Osaurus s’inscrit dans une tendance qui prend de l’ampleur : permettre à un utilisateur de choisir son modèle d’intelligence artificielle sans être enfermé dans un seul service. Sur Mac, l’application se présente comme un serveur open source capable de relier des modèles hébergés localement et des modèles accessibles via le cloud, tout en conservant les données et les outils de l’utilisateur sur sa machine.
Son objectif consiste surtout à agir comme une couche logicielle “au-dessus” des modèles, afin d’offrir une interface unique et de faciliter le passage d’un modèle à un autre selon les besoins.
Un “serveur” qui fait le lien entre plusieurs modèles
Le principe central d’Osaurus est de donner accès, depuis un même environnement, à des modèles exécutés sur l’ordinateur de l’utilisateur ou via des fournisseurs de cloud. L’intérêt avancé est double : d’une part, pouvoir comparer ou alterner les modèles (selon leurs performances attendues sur une tâche donnée) ; d’autre part, limiter la dépendance à l’infrastructure distante pour certaines opérations.
Dans la pratique, l’application peut s’appuyer sur une sélection de modèles. Elle annonce notamment la prise en charge de plusieurs familles courantes et, côté écosystème Apple, la compatibilité avec des modèles “on-device” (sur l’appareil). Côté cloud, Osaurus peut aussi se connecter à différents fournisseurs, ce qui permet d’utiliser des capacités variées sans changer de configuration globale.
Une approche centrée sur la machine de l’utilisateur
Osaurus met en avant l’idée de conserver certains éléments du travail en local : fichiers, outils et mémoire associée aux modèles. Cette logique s’inscrit dans une préoccupation fréquente, surtout pour des usages sensibles : réduire le trafic vers des services externes et mieux maîtriser l’environnement d’exécution.
Le logiciel affirme par ailleurs traiter l’exécution dans un contexte isolé, via une sandbox virtuelle. L’approche vise à limiter la portée des actions permises, afin d’améliorer le contrôle sur ce que l’intelligence artificielle peut atteindre côté système et données.
Un modèle orienté “outils” et intégrations
Au-delà de l’accès aux modèles, Osaurus se positionne comme un serveur compatible avec le Model Context Protocol (MCP). Cela permet de fournir à des clients compatibles un accès aux outils et fonctionnalités disponibles sur la machine, dans le cadre d’un même système de contrôle.
L’application inclut aussi des plugins annoncés pour plusieurs fonctions : calendrier, messagerie, vision, accès à des fichiers, recherche, navigation web, ou encore intégrations liées à des formats de documents. L’objectif est de rendre l’IA plus “utilisable” au quotidien, en la connectant à des tâches concrètes plutôt qu’à un simple échange de texte.
Ressources matérielles : une contrainte encore réelle
Utiliser des modèles en local reste dépendant du matériel. Les exigences varient selon la taille des modèles retenus. L’équipe indique que pour des modèles “locaux” il faut au minimum un ordinateur disposant d’une quantité de mémoire vive élevée, et davantage pour des modèles plus imposants. Cela place de facto l’usage local plutôt dans une catégorie de configurations capables de supporter la charge computationnelle.
Malgré ces limites, l’argument avancé est que les capacités progressent rapidement : les modèles locaux seraient de plus en plus capables d’enchaîner des actions, d’interagir avec des outils, et de produire un résultat plus “opérationnel” au fil des versions.
Vers des usages pro et une réduction de la dépendance au cloud
Osaurus cherche aussi à se projeter au-delà du grand public. L’idée évoquée est de viser des environnements professionnels où la confidentialité et le contrôle des données comptent davantage, par exemple dans des secteurs comme la santé ou le juridique. L’exécution locale pourrait alors contribuer à limiter certains transferts vers des infrastructures externes.
À plus long terme, l’équipe avance que l’adoption de l’IA locale pourrait réduire la demande d’hébergement massif dans les centres de données, en complément plutôt qu’en remplacement total du cloud.
Deux pistes matérielles à considérer
Pour faire tourner des modèles localement sur Mac, le point le plus critique reste souvent la configuration mémoire et la capacité de calcul. Selon les besoins, certains utilisateurs se tournent vers un ordinateur puissant, par exemple un Mac Studio adapté aux charges plus lourdes. Pour compléter un setup qui nécessite plus de RAM et d’espace de travail, un SSD externe rapide peut aussi faciliter la gestion des fichiers et des projets tout en gardant une organisation claire.

