DeepSeek a dévoilé deux nouveaux modèles d’intelligence artificielle, le V4 Pro et le V4 Flash. L’entreprise affirme que son système atteint un niveau de raisonnement « comparable au meilleur », tout en misant sur des capacités techniques visant à améliorer la cohérence sur de longues discussions. Ces annonces interviennent dans un contexte déjà marqué par un fort engouement médiatique et par des restrictions et suspensions liées à des préoccupations de sécurité et de confidentialité.
Une longueur de contexte pensée pour des conversations plus suivies
L’un des arguments mis en avant par DeepSeek concerne la « longueur de contexte », c’est-à-dire la quantité maximale de tokens que le modèle peut traiter et mémoriser à la fois. Plus elle est élevée, plus l’IA peut conserver des éléments pertinents au fil de l’échange, ce qui peut se traduire par des réponses plus constantes lors de conversations prolongées. DeepSeek présente ainsi son orientation vers un usage capable d’absorber jusqu’à un million de tokens de contexte, en cohérence avec la tendance du secteur.
V4 Pro et V4 Flash : raisonnement et compromis performance/rapidité
Le V4 Pro reste le modèle le plus ambitieux. DeepSeek le qualifie de « plus ouvert » (open-source), indiquant que son code peut être récupéré et ajusté par des développeurs. L’entreprise avance aussi que ses « capacités agentiques » ont été améliorées, un terme qui désigne la capacité du système à réaliser des tâches de manière plus autonome ou structurée. DeepSeek affirme en outre que le V4 Pro rivalise avec des modèles fermés de référence sur le raisonnement, et qu’il ne serait devancé que par un modèle particulier lorsqu’il s’agit de connaissances « riches » sur le monde.
Le V4 Flash, lui, vise un équilibre différent. Moins puissant que le V4 Pro selon les éléments communiqués, il est conçu pour des réponses plus rapides. DeepSeek soutient toutefois que la qualité du raisonnement resterait proche sur les tâches simples impliquant des agents, ce qui en ferait une option potentiellement intéressante pour des usages où la latence compte davantage que la performance maximale.
Pour les personnes qui cherchent à tester des modèles open-source sur du matériel personnel, un ordinateur portable orienté calcul peut s’avérer utile. À titre indicatif, un ordinateur portable avec GPU performant peut faciliter l’expérimentation et le prototypage, selon les besoins et la configuration logicielle visée.
Des restrictions administratives après l’essor de l’application
Après la popularité de DeepSeek dans les classements d’applications, plusieurs administrations ont pris des mesures. Aux États-Unis, l’usage de l’application a été interdit pour les agences fédérales et sur des dispositifs appartenant au gouvernement, des autorités estimant que le logiciel pouvait présenter un risque pour la sécurité nationale et un impact sur le secteur des technologies d’IA.
En Corée du Sud, des téléchargements ont également été suspendus, cette fois au motif de préoccupations autour de la confidentialité. Ces épisodes illustrent que, au-delà des performances techniques revendiquées, l’adoption d’outils d’IA s’accompagne souvent d’évaluations portant sur la gouvernance, les données et la conformité.
Dans une démarche d’expérimentation locale, la mémoire et le stockage sont aussi des paramètres pratiques. Un SSD NVMe de capacité élevée peut aider à fluidifier les installations et les environnements de travail liés à l’apprentissage et au déploiement de modèles, sans être spécifique à DeepSeek.
Au final, les annonces de DeepSeek placent la barre sur deux axes : la capacité à raisonner efficacement et la capacité à maintenir la cohérence sur de longues séquences. Reste à vérifier, au fil d’évaluations indépendantes, dans quelle mesure les gains revendiqués se traduisent en conditions réelles d’usage.

