📌 L’investissement de 122 milliards de dollars d’OpenAI prouve le bien-fondé des systèmes d’IA décentralisés.
-Le tour d’investissement de série C de 122 milliards de dollars d’OpenAI, qui s’est clôturé aujourd’hui à une valorisation de 852 milliards de dollars après rachat, révèle une limite importante au développement de l’IA de pointe : il nécessite une énorme concentration financière et le contrôle des ressources d’infrastructure.
Aujourd’hui, l’entreprise génère 2 milliards de dollars de revenus par mois et croît quatre fois plus vite qu’Alphabet et Meta à leur apogée. Mais l’échelle requise pour une telle croissance révèle une dure réalité pour l’ensemble du marché de l’IA : la voie suivie par OpenAI, qui consiste à construire ses propres modèles sur sa propre base matérielle, avec le soutien d’un petit nombre de fabricants de puces et de géants de l’informatique en nuage, est à la fois gourmande en capitaux et centralisée sur le plan structurel.
Le calcul est simple. Les 122 milliards de dollars de financement d’OpenAI sont soutenus par Amazon, NVIDIA et SoftBank, avec des collaborations en cours avec Microsoft, Oracle, AWS et Google Cloud. Sur le plan matériel, NVIDIA reste l’épine dorsale, avec AMD, AWS Trainium et ses propres conceptions de puces en coopération avec Broadcom. La société a porté sa facilité de crédit à 4,7 milliards de dollars, avec le soutien d’un syndicat bancaire international. Il s’agit d’une infrastructure à grande échelle, mais à une échelle où le nombre de gardiens est extrêmement faible. La déclaration d’OpenAI elle-même confirme cette limitation : Aucune architecture unique ne peut répondre efficacement à tous les besoins du front-end de l’IA. Pour faire face à cette demande et maintenir la flexibilité, nous construisons un portefeuille d’infrastructure plus large qui comprend plusieurs partenaires cloud, différentes plateformes de puces et une co-conception approfondie sur l’ensemble de la pile technologique.
En substance, la société dit que même avec 122 milliards de dollars, elle dépend toujours du verrouillage des fournisseurs et des accords de partenariat.
C’est cette dépendance qui rend les arguments économiques en faveur des réseaux informatiques décentralisés d’autant plus convaincants. Alors que les systèmes d’IA phares nécessitent une puissance de capital, les applications périphériques – traitement des requêtes, réglage fin, tâches spécifiques, déploiement à la périphérie du réseau – deviennent réalisables pour les réseaux distribués qui peuvent les fournir à moindre coût.
La théorie est étayée par la pratique : les systèmes d’incitation basés sur des jetons peuvent coordonner les calculs de différents fournisseurs sans qu’il soit nécessaire de centraliser les capitaux.
Au lieu du modèle OpenAI (collecte de fonds, infrastructure privée, extraction de la rente), les réseaux décentralisés redistribuent la propriété du matériel, unifient les protocoles et forment des marchés ouverts pour l’informatique.
Plusieurs projets ont déjà créé des infrastructures fonctionnelles basées sur ce principe : des réseaux qui permettent aux participants de fournir des ressources informatiques et d’être rémunérés pour cela ; des systèmes qui permettent aux utilisateurs de louer des capacités GPU inutilisées ; des plateformes qui relient les tâches d’apprentissage et d’infére
nce au matériel distribué ; et des protocoles pour le calcul vérifiable. Ils opèrent à différents niveaux (formation et inférence, tâches générales et spécialisées), mais ils partagent un principe commun : les avantages économiques de l’infrastructure d’IA devraient revenir aux propriétaires du matériel, et non aux plates-formes à forte intensité de capital.
L’indicateur clé devient l’utilisation des ressources et le prix. L’infrastructure OpenAI est axée sur la recherche avancée et la fourniture d’un accès premium aux utilisateurs finaux/entreprises – utilisation élevée, marge élevée. Les réseaux décentralisés ciblent différents segments : les développeurs qui ont besoin d’un système d’inférence abordable, les entreprises qui cherchent à éviter de dépendre d’un seul fournisseur, les chercheurs qui mènent des expériences sans disposer d’un capital de 122 milliards de dollars, et les applications qui nécessitent une distribution géographique ou une résistance à la censure.