La semaine dernière, la Bourse du NASDAQ – qui répertorie les actions technologiques américaines importantes – a connu une grande baisse. Cela résulte de la startup chinoise Deepseek annonçant qu’elle avait développé un modèle d’intelligence artificielle qui fonctionne ainsi que la technologie AI Openai et Meta, mais à une fraction du coût et avec moins de puissance de calcul.
AI chip designer Nvidia a perdu près de 600 milliards de dollars de sa capitalisation boursière (la valeur totale en dollars de ses actions en circulation) – la plus grande baisse d’une journée vécue par une entreprise de l’histoire du marché américain. Bien que le cours de l’action de NVIDIA ait récupéré un terrain, les analystes continuent de deviner les plans d’infrastructure d’IA ambitieux de manière secondaire, y compris les puces spécialisées de l’unité de traitement des graphiques de l’entreprise ainsi que des centres de données massifs comme ceux construits et exploités par Amazon.
Les créateurs de Deepseek prétendent avoir trouvé un meilleur moyen de former leur IA en utilisant des pièces spéciales, en améliorant la façon dont l’IA apprend les règles et en déploiement d’une stratégie pour que l’IA fonctionne bien sans gaspiller des ressources. Selon la société rapportces innovations ont considérablement réduit la puissance de calcul nécessaire pour développer et exécuter le modèle et donc le coût associé aux puces et serveurs. Cette forte réduction des coûts a déjà attiré des développeurs d’IA plus petits à la recherche d’une alternative moins chère aux laboratoires d’IA de haut niveau.
À première vue, la réduction des dépenses de formation de modèles de cette manière peut sembler compromettre la «course aux armements» d’un milliard de dollars impliquant des centres de données, des semi-conducteurs et des infrastructures de nuages. Mais comme le montre l’histoire, la technologie moins chère alimente souvent une plus grande utilisation. Plutôt que d’amortir les dépenses en capital, les percées qui rendent l’IA plus accessible peuvent déclencher une vague de nouveaux adoptants, y compris non seulement les startups technologiques mais également les entreprises de fabrication traditionnelles et les fournisseurs de services tels que les hôpitaux et la vente au détail.
Le directeur général de Microsoft, Satya Nadella, a qualifié ce phénomène de «Paradoxe de Jevons»Pour AI. Attribué à l’économiste anglais du XIXe siècle William Stanley Jevons, le concept décrit comment rendre la technologie plus efficace peut augmenter plutôt que réduire la consommation. La vapeur et l’énergie électrique ont suivi ce schéma: une fois qu’ils sont devenus plus efficaces et abordables, ils se propagent à plus d’usines, de bureaux et de maisons, ce qui augmente finalement une utilisation.
Nadella a raison: les coûts de développement d’aujourd’hui pour une IA générative sont prêts à générer une expansion similaire. Cela signifie que le ciel ne tombe pas pour les grandes entreprises technologiques qui fournissent une infrastructure et des services d’IA. Les principaux joueurs technologiques sont prévu d’investir plus de 1 billion de dollars dans les infrastructures d’IA d’ici 2029et le développement Deepseek ne changera probablement pas autant ses plans.
Bien que les coûts de formation puissent baisser, les exigences matérielles à long terme pour les charges de travail massives d’apprentissage automatique, le traitement des données et les logiciels d’IA spécialisés restent énormes. Bien que les prix des puces puissent baisser à mesure que la formation des modèles devient plus efficace, les applications basées sur l’IA – telles que les chatbots génératifs et les contrôles industriels automatisés – exigent des serveurs puissants, des réseaux à grande vitesse pour transmettre des flux de données massifs et des centres de données fiables pour gérer des milliards de milliards de temps réels requêtes. Les exigences réglementaires, de sécurité et de conformité compliquent encore la mise en œuvre, nécessitant des solutions avancées et parfois coûteuses qui peuvent stocker et traiter les données de manière responsable.
Les technologies à usage général qui transforment les économies se propagent généralement en deux étapes. Premièrement, pendant une longue période de gestation, les organisations bien financées expérimentent, affinant les prototypes et les processus. Plus tard, une fois que les normes se stabilisent et les solutions prêtes à l’emploi émergent, des entreprises plus prudentes interviennent. Dans le cas de l’électricité, la première étape a vu des années passant des années à réorganiser les planchers de production et à adopter de nouveaux flux de travail avant que l’électrification ne se répande largement; Dans le cas de l’IA, il a été composé de grandes banques, détaillants et fabricants faisant une utilisation coupable de la technologie lente et fragmentaire.
Il y a un siècle et demi, lorsque le processus de Bessemer a introduit l’utilisation de l’air chaud pour faire exploser les impuretés en fer en fusion et les usines ont compris comment produire des produits en acier standardisés, les fabricants pivotés. Les prix de l’acier ont chuté et la consommation a grimpé en flèche, augmentant finalement les dépenses dans ce secteur malgré l’utilisation plus efficace des Steelmakers du minerai de fer.
Maintenant que Deepseek et d’autres innovations promettent des coûts inférieurs, davantage d’entreprises peuvent être prêtes à adopter ou au moins à essayer l’IA, et la demande d’infrastructures d’IA devrait augmenter. Un modèle plus abordable et de pointe pourrait également encourager les industries, les startups et les entrepreneurs à utiliser plus largement l’IA, augmentant son adoption dans la logistique, le service client et plus encore.
Imaginez, par exemple, un cabinet d’avocats de 200 personnes spécialisé dans l’immobilier commercial. Initialement, il utilise parfois Chatgpt pour produire des résumés de contrats rapides, mais ses partenaires se déchaînent sur les risques de qualité et de confidentialité incohérents. Après avoir testé un modèle axé sur les contrats fournis par un fournisseur réputé, l’entreprise adopte une technologie qui s’intègre directement à son système de gestion de documents. Cela permet aux avocats associés de rédiger automatiquement des centaines de pages en quelques secondes, de s’appuyer sur des «suggestions de clause» d’IA adaptées aux précédents immobiliers et de limiter la nécessité de demander des conseils de partenaires principaux à des cas de langue particulièrement ambiguë ou à enjeux élevés. De plus, la conception du système empêche les données des clients de quitter le domaine de l’entreprise, augmentant la sécurité.
Au fil du temps, l’entreprise ajoute des modules d’IA pour la recherche avancée en litige et les notes de facturation automatisées, réduisant régulièrement les tâches administratives et permettant aux experts humains de se concentrer sur des informations juridiques stratégiques. Il voit un revirement de contrat plus rapide, une facturation standardisée et une nouvelle volonté parmi les partenaires pour explorer les outils basés sur l’IA dans d’autres domaines.
En bref, les demandes en capital de l’AI ne se rétréciront pas grâce à Deepseek; Ils deviendront plus largement distribués. Nous verrons cette expansion d’éperon dans les réseaux électriques, les systèmes de refroidissement, les centres de données, les pipelines logiciels et les infrastructures qui permet à plus d’appareils d’utiliser l’IA, y compris les robots et les voitures sans conducteur. La poussée d’infrastructure de milliards de dollars peut persister pour les années à venir.
Victor Menaldo est professeur de sciences politiques à l’Université de Washington et Écrit un livre sur L’économie politique de la quatrième révolution industrielle.