La Silicon Valley investit 200 millions de dollars dans des centres de données d’IA flottants en mer



Des investisseurs de la Silicon Valley, dont des figures associées à l’écosystème d’Al, misent sur une approche radicale pour alimenter des infrastructures de calcul : des data centers capables de fonctionner en mer, portés par l’énergie des vagues. L’orientation vise à répondre aux difficultés rencontrées sur le territoire—coûts, délais et contraintes liées aux sites et à l’accès à l’électricité—pendant que la demande en capacité d’exécution pour l’IA continue de croître.

Un projet d’“ordinateurs en mer” alimentés par les vagues

Dans le cadre d’un nouveau tour de financement, Panthalassa annonce une levée destinée à soutenir la finalisation d’une usine pilote près de Portland, dans l’Oregon, et à accélérer le déploiement de “nœuds” exploitant l’énergie des vagues. L’objectif est de produire directement en mer l’électricité nécessaire au calcul, au lieu de l’acheminer depuis une source terrestre vers un centre de données classique.

Le principe consiste à faire fonctionner des puces d’IA à bord de ces modules, puis à renvoyer vers les clients dans le monde des résultats sous forme de “tokens” d’inférence via une liaison par satellite.

Comment fonctionnent les nœuds

Visuellement, chaque nœud prend la forme d’une grande sphère en acier flottant à la surface, reliée à un dispositif vertical plongeant sous l’eau. Les mouvements induits par les vagues permettent de remonter l’eau à travers le conduit vers un réservoir sous pression. L’eau peut ensuite être relâchée afin de faire tourner une turbine génératrice, qui alimente les systèmes embarqués, notamment les puces destinées aux calculs d’IA.

Le refroidissement : un levier potentiel

Panthalassa affirme que les puces pourraient aussi bénéficier du refroidissement assuré par l’eau environnante. L’idée avancée est que la température de l’environnement marin offrirait un avantage notable par rapport à certains schémas traditionnels des data centers, qui mobilisent davantage d’électricité et recourent à l’eau douce pour leurs systèmes de refroidissement.

Selon Benjamin Lee, ingénieur et spécialiste d’architecture informatique, l’essentiel du défi serait aussi organisationnel et technique : il faut déplacer les modèles dans ces nœuds, puis gérer les interactions—répondre aux requêtes envoyées aux systèmes embarqués, au fil du traitement.

Ce que cette stratégie change, et les points à surveiller

  • Alléger la dépendance au réseau terrestre : la production d’énergie à bord peut réduire l’enjeu d’accès immédiat à de grandes infrastructures électriques.

  • Réorganiser la chaîne de traitement de l’IA : le modèle doit être déployable en environnement marin, avec des échanges de données (requêtes et résultats) qui s’appuient sur une connectivité satellite.

  • Fiabilité en conditions réelles : la performance, la maintenance et la stabilité à long terme en milieu océanique seront des critères déterminants pour juger la pertinence industrielle.

Pour soutenir ce type de déploiement, les équipes doivent aussi s’équiper de matériel informatique robuste. À titre indicatif, certains professionnels envisagent des solutions de sauvegarde et de gestion matérielle comme un onduleur/UPS pour serveurs afin de sécuriser l’alimentation et limiter les arrêts lors de tests et de mises en service.

Du côté des environnements de calcul, des systèmes de refroidissement et de distribution de chaleur restent un sujet central ; un système de ventilation et de gainage industriel peut aussi être utilisé, notamment pour les phases d’intégration ou les équipements périphériques.