Le Nouvel Âge des Investissements IA
Des « AI Factories » aux Participations Croisées
Une analyse approfondie de la transformation industrielle de l'intelligence artificielle, où la valeur ne réside plus uniquement dans les modèles, mais dans l'ensemble de l'architecture qui les rend possibles : computing, énergie, distribution, terminaux et normes.
Stéphane CAMY
Claresco Finance
19 novembre 2025
Executive Summary : La Nouvelle Géopolitique de l'IA
États-Unis : Infrastructure Dense
Plus de 5 000 data centers constituent l'infrastructure la plus dense du monde, mais le réseau électrique saturé devient une contrainte physique majeure, incapable d'alimenter l'expansion prévue de l'IA.
  • Capacité de computing dominante
  • Réseau électrique sous tension
  • Délais de raccordement critiques
Chine : Surcapacité Énergétique
Stratégie orthogonale avec peu de data centers mais une surcapacité énergétique colossale, une efficacité de calcul extrême via DeepSeek et Qwen, garantissant plus de puissance disponible que la demande mondiale à l'horizon 2030.
  • Pipeline renouvelable massif
  • Modèles ultra-efficaces
  • Surplus énergétique structurel
La dynamique clé des dix prochaines années ne sera pas qui possède le meilleur modèle, mais qui peut produire, alimenter, distribuer et incarner l'intelligence à l'échelle industrielle. À ce jeu, les États-Unis dominent l'infrastructure de calcul ; la Chine domine déjà l'infrastructure énergétique.
L'Architecture à Sept Pôles des Big Tech
Microsoft
Contrôle l'usine : le computing industriel mondial via Azure
Alphabet
Contrôle l'écosystème : cloud, modèles, distribution, mobilité
Apple
Contrôle le terminal : l'IA intime et embarquée
Amazon
Contrôle l'acheminement : la logistique cognitive
Meta
Contrôle la norme : l'open-weight comme standard global
Tesla
Contrôle la perception : l'IA du monde réel
Oracle
Contrôle la puissance : l'énergie pour entraîner les modèles
C'est à l'intersection de ces architectures, computing et puissance, que se décidera la véritable hiérarchie mondiale de l'IA dans les années à venir.
L'Industrialisation de l'IA : Des CAPEX Massifs
Depuis fin 2022, l'IA n'est plus une expérimentation logicielle mais une industrie lourde avec ses usines, ses fournisseurs, son énergie et ses flux financiers pluriannuels. Le cycle actuel est alimenté par des CAPEX massifs des hyperscalers et une montée en puissance des investissements croisés.
466-491Md$
Investissements Cumulés
CAPEX orientés vers la chaîne IA : hyperscalers, semiconducteurs, énergie, equity corporate
250Md$
OpenAI-Azure
Engagements de capacité cloud contractualisés sur plusieurs années
30Md$
Anthropic-Azure
Nouveaux engagements incluant 1 GW de systèmes Nvidia
Les grands acteurs américains — Microsoft, Amazon, Alphabet, Meta, Oracle — ont enclenché un cycle de CAPEX annuel cumulatif de plusieurs centaines de milliards pour construire des « AI factories » : data centers densifiés en GPU, interconnexions optiques, packaging avancé, refroidissement liquide, lignes haute tension.
Les Participations Croisées : Une Nouvelle Logique
Microsoft → OpenAI
1 Md$ initial (2019), puis accord « multiyear, multibillion » estimé à 10 Md$ (2023) avec exclusivité Azure
Amazon → Anthropic
Jusqu'à 8 Md$ combinant equity et crédits AWS autour des puces Trainium/Inferentia
Google → Anthropic
Jusqu'à 2 Md$ (500 M$ equity, 1,5 Md$ convertible) tout en développant Gemini
Nvidia → Écosystème
Recursion (50 M$), CoreWeave (≈350 M$), Cohere, pour sécuriser la demande GPU
On observe une montée en puissance très nette des participations croisées entre grandes plateformes et start-ups IA. Ces investissements ne sont pas de simples prises de participation : ils transforment les modèles en clients ancrés et les start-ups en amortisseurs économiques des CAPEX.
L'Annonce Historique : Microsoft-Nvidia-Anthropic
Les Chiffres Clés
15Md$
Investissement Total
5 Md$ Microsoft + 10 Md$ Nvidia
30Md$
Engagement Azure
Capacité cloud contractualisée
1GW
Systèmes Nvidia
Puissance computing préachetée
Une Triple Dynamique
L'annonce du 18 novembre 2025 ajoute un étage spectaculaire à cette architecture. On est au croisement de trois dynamiques :
  1. Une start-up IA qui cherche un socle de computing de long terme
  1. Un éditeur de GPU qui verrouille son débouché industriel
  1. Un hyperscaler qui transforme un investissement equity en pipeline de revenus cloud contractualisés
Cette logique de « computing PPAs » (engagements fermes de capacité sur plusieurs années) prolonge des centaines de milliards de CAPEX et lisse le risque économique dans le temps.
Apple : Stratégie Edge Brillante mais Dépendante
Une Approche Radicalement Différente
Apple a pris une voie très différente des hyperscalers. Au lieu de devenir un vendeur massif de computing cloud, la firme a dessiné une stratégie IA centrée sur le device et la confidentialité, avec Apple Intelligence comme couche d'orchestration.
Forces Structurelles
  • Modèles on-device optimisés pour Apple Silicon
  • Private Cloud Computing (PCC) pour extension privée
  • Coût marginal d'inférence locale tendant vers zéro
  • Positionnement idéal face aux régulateurs
  • Contrôle total de l'interface utilisateur
Faiblesses Critiques
  • Pas de LLM fondationnel au niveau GPT-5/Gemini 2.0
  • Pas de cloud company : ni Azure, ni AWS, ni GCP
  • Dépendance structurelle aux LLM externes
  • Project Titan (voiture) arrêté en février 2024
  • Vision Pro sans débouché massif immédiat

Le Paradoxe Apple : La stratégie IA d'Apple est cohérente et brillante sur le plan énergétique et réglementaire, mais elle reste dépendante des LLM industriels pour le socle cognitif et de la domination continue d'Apple sur le terminal pour conserver la main sur la relation utilisateur.
Alphabet : L'Architecture la Plus Complète
Le Seul Acteur Full-Stack de l'IA 2030
À l'inverse d'Apple, Alphabet apparaît aujourd'hui comme l'acteur qui a, potentiellement, toutes les briques de l'IA de prochaine génération, de l'usine à l'interface.
Infrastructure Cloud
GCP, data centers hyperscale, TPU propriétaires optimisés pour l'entraînement et l'inférence
Modèles Gemini
Continuum de capacités : Ultra et Flash pour le cloud, Pro pour SaaS, Nano pour l'embarqué
Distribution Globale
Android (3 Md devices), Chrome, YouTube, Maps, Search, Gmail, Workspace
Waymo Robotaxis
Services autonomes opérationnels à San Francisco, Phoenix, LA, Atlanta, expansion 2026
Alphabet réunit un cloud hyperscale, des modèles fondationnels, des modèles embarqués, une distribution OS globale, une couche géospatiale, une couche documentaire/vidéo, et un pionnier de la voiture autonome. Aucun autre acteur ne possède cette complétude systémique.
Microsoft : La Fabrique Mondiale du Computing
L'Architecte Industriel de la Cognition Mondiale
Microsoft est devenu, en moins de trois ans, l'architecte industriel de la cognition mondiale. L'entreprise a décidé que sa souveraineté passerait par la maîtrise du computing comme ressource rare et par l'accès privilégié aux modèles les plus avancés.
1
2019
Investissement initial 1 Md$ dans OpenAI
2
2023
Accord multibillion ≈10 Md$ avec exclusivité Azure
3
2024
Participation dans Mistral AI
4
2025
5 Md$ dans Anthropic + 30 Md$ computing
La Force : Conversion Equity → Computing
Microsoft a transformé chaque investissement equity dans une start-up IA en un contrat pluriannuel de computing qui alimente Azure dans une boucle de rétroaction parfaitement maîtrisée. Les modèles deviennent des clients ancrés, les start-ups des amortisseurs économiques des CAPEX.
La Faiblesse : Dépendance Cognitive
L'entreprise dépend d'un fournisseur externe pour son socle cognitif. OpenAI reste une entité autonome, Anthropic un partenaire non contrôlé. Microsoft ne possède pas un LLM fondationnel souverain au niveau de GPT-5 ou Gemini 2.0 : il possède l'accès.
Amazon, Meta, Tesla : Trois Stratégies Divergentes
Amazon : Logistique Cognitive
Amazon aborde l'IA comme une révolution industrielle de la logistique mondiale, non comme une révolution cognitive. L'investissement dans Anthropic (8 Md$) positionne Bedrock comme plateforme neutre pour les entreprises.
  • Trainium/Inferentia : puces propriétaires
  • SageMaker : sur-mesure entreprise
  • Plus vaste réseau logistique mondial
  • IA comme productivité interne
Faiblesse : Absence d'agent grand public, dépendance aux modèles tiers pour la qualité cognitive
Meta : Le Pari Open-Weights
Meta a pris la seule stratégie vraiment dissidente : Llama comme standard ouvert, arme géopolitique pour imposer une norme mondiale. L'open-weight devient un contre-pouvoir idéologique et industriel.
  • Llama : premier modèle open-weight compétitif
  • Intégration WhatsApp, Instagram, Quest, Messenger
  • FAIR : équipes de recherche avancées
  • Graphe social massif
Faiblesse : Pas de cloud hyperscale, pas de contrôle OS mobile, exposition réglementaire maximale
Tesla : Perception du Réel
Tesla ne développe pas un agent mais une perception. Dojo, le superordinateur maison, transforme des milliards d'heures de vidéo en comportements autonomes pour véhicules et humanoïdes Optimus.
  • Boucle de données unique : parc de véhicules
  • Avance conduite autonome niveau 4-5
  • Extension vers robotique humanoïde
  • Infrastructure sensorielle mondiale
Faiblesse : Dépendance au parc propre, pas de surface cognitive universelle
Oracle : De l'Éditeur à la Rente Énergétique
Le Fournisseur de Puissance
Oracle a trouvé dans l'IA une opportunité inattendue : redevenir un nœud critique de l'infrastructure mondiale. La singularité de son positionnement tient à un fait simple mais décisif : Oracle ne possède pas d'IA, elle possède l'énergie et les infrastructures permettant à l'IA de fonctionner.
L'entreprise s'est positionnée comme l'hébergeur privilégié des charges massives d'entraînement des futurs modèles de très grande échelle. Le partenariat Stargate avec OpenAI illustre cette orientation : Oracle devient l'un des rares sites capables d'absorber des densités thermiques extrêmes.
Avantages Structurels
  • Data centers haute densité optimisés
  • Proximité immédiate de sources d'énergie fiables
  • Refroidissement liquide industriel
  • Réseaux électriques capables d'encaisser le choc
  • Architecture « behind-the-meter power »
100+MW
Capacité par Site
Densité thermique extrême

Oracle n'a pas d'IA : elle a une centrale électrique. Dans un monde où l'énergie stable devient la principale monnaie industrielle, Oracle n'est plus périphérique : elle est un fournisseur essentiel d'une ressource que les autres ne maîtrisent plus.
La Contrainte Énergétique Américaine
Le Goulot d'Étranglement Physique
Les États-Unis ont construit l'infrastructure de computing la plus dense du monde, mais butent désormais sur une contrainte physique majeure : un réseau électrique saturé, incapable d'alimenter l'expansion prévue de l'IA.
6%
Consommation Actuelle
Part de l'électricité US consommée par les data centers aujourd'hui
10-11%
Projection 2030
Part attendue d'ici 2030 avec l'expansion de l'IA
19%
Marge Disponible
Surplus de capacité sur le réseau électrique américain en forte érosion
Les Symptômes de la Saturation
  • Files d'attente de raccordement : plusieurs années
  • Demandes de connexion refusées dans certains États
  • Gigawatts de demandes bloquées faute d'infrastructure
  • Hyperscalers contraints au « behind-the-meter »
  • Développement de capacités privées d'électricité
La Réalité Structurelle
Les États-Unis ont environ 5 400 data centers, plus d'infrastructures de computing que l'ensemble des autres grandes puissances réunies. Mais cette trajectoire frontale bute sur la géophysique : le réseau électrique ne suit plus.
La thèse américaine était simple : celui qui possède l'infrastructure la plus avancée gagne la course à l'IA. Cette thèse rencontre désormais ses limites physiques.
La Stratégie Énergétique Chinoise
Surcapacité Structurelle vs Infrastructure Dense
La Chine a pris une option presque orthogonale aux États-Unis. Au lieu d'entrer dans une course au nombre de data centers qu'elle sait perdue d'avance, elle a misé sur deux leviers : la brutalité de la baisse du coût par token et la surcapacité énergétique.
Efficacité Logicielle
DeepSeek, Qwen, Baichuan : modèles conçus pour tourner sur infrastructures modestes avec coûts d'entraînement et d'inférence sans commune mesure avec équivalents occidentaux
Capacité Renouvelable
+197 GW solaires et +46 GW éoliens sur les 5 premiers mois de 2025. Capacité installée de 3,99 TW attendue fin 2025
Surplus Projeté
400 GW de marge utilisable projetés en 2030, dépassant potentiellement la demande mondiale des data centers
L'Inversion Silencieuse
Le résultat est une inversion silencieuse : les États-Unis ont beaucoup d'usines d'IA mais une énergie sous tension ; la Chine a moins d'usines, mais une capacité croissante à alimenter, à bas coût, tout ce qu'elle décidera d'y faire tourner.
La Question Stratégique
La question n'est donc plus seulement de savoir qui a construit le plus d'infrastructures en 2025, mais qui sera effectivement capable d'alimenter ces infrastructures en 2030.
Synthèse : L'Architecture Énergétique de l'IA Mondiale
Du Triangle au Pentagone, et du Pentagone à la Puissance
Depuis 2022, l'économie de l'IA n'a cessé de changer d'échelle. Ce qui apparaissait d'abord comme un triangle stratégique s'est progressivement étendu pour former un pentagone industriel, puis une architecture à sept pôles. Mais les événements récents obligent à élargir encore ce cadre.
Microsoft : L'Usine
Computing industriel, Azure, contrats pluriannuels
Alphabet : L'Écosystème
Distribution totale, Gemini partout, Waymo
Apple : Le Terminal
IA intime, embarquée, protégée
Amazon : L'Acheminement
Logistique cognitive, Bedrock, Trainium
Meta : La Norme
Open-weights, Llama comme standard
Tesla : La Perception
IA du monde réel, Dojo, véhicules
Oracle : La Puissance
Énergie pour entraîner, centrales électriques

La Vérité Profonde : La rareté critique de l'IA n'est plus le silicium, mais la puissance électrique stable et dense. Le gagnant de la décennie n'est pas celui qui possède le plus de data centers aujourd'hui, mais celui qui pourra les alimenter demain. La supériorité américaine est immédiate ; la supériorité chinoise est structurelle.
Conclusion : Qui Contrôle la Puissance ?
La Hiérarchie Mondiale de l'IA se Joue à l'Intersection
Cette architecture à sept pôles organise désormais la compétition mondiale. Mais cette architecture n'est elle-même qu'une couche intermédiaire. Au-dessus, une question unique domine :
Qui contrôle la puissance nécessaire pour entraîner, maintenir et distribuer l'intelligence artificielle à l'échelle planétaire ?
Le Modèle Économique
Se bat au niveau des modèles, des investissements, des participations croisées, des contrats pluriannuels, des computing PPAs.
Le Modèle Politique
Se joue au niveau de l'énergie, des réseaux électriques, de la capacité installée, du surplus structurel, de la souveraineté énergétique.
L'histoire des dix prochaines années sera celle de cette intersection, entre computing, modèles, terminaux, flux, normes, perception et puissance, d'où émergera la véritable hiérarchie mondiale de l'IA.

Document établi par Claresco Finance avec le support de ChatGPT 5.1
Stéphane CAMY
[email protected]
Claresco Finance - Société de Gestion de Portefeuille agréée AMF n° GP 98042