Si vous faites défiler cette histoire sur un smartphone, vous organisez un produit qui exploite l’un des investissements les plus audacieux que les États-Unis aient jamais fait en science.
En 1947, des chercheurs de Bell Labs à Murray Hill, NJ, ont commencé ce processus en construisant le premier transistor de travail. À l’époque, le soi-disant «triode semi-conducteur» n’était qu’une curiosité de laboratoire en germanium qui pourrait contrôler le courant électrique de la même manière que les panneaux de limite de vitesse et les lignes jaunes doubles contrôlent votre voiture. Ce n’est que plus tard, comme le silicium s’est avéré plus stable et fabriquée, ces petits dispositifs ont été surnommés des transistors – hochant la tête à leur capacité à transférer une résistance électrique.
Ces scientifiques de Bell Labs ne visaient pas à construire des iPhones ou des superordinateurs. Ils poursuivaient simplement la question de savoir comment les électrons se déplaçaient à travers les solides. Mais cette expérience axée sur la curiosité est devenue le fondement de chaque puce informatique sur Terre, et leur percée a depuis remodelé la civilisation. Aujourd’hui, des milliards de transistors – chacun pas plus grand qu’une bactérie – s’adaptent à une puce plus petite qu’un ongle, alimentant tout, des ordinateurs portables et des systèmes de défense aux moniteurs cardiaques, aux satellites, aux véhicules et au GPS qui guide votre trajet.
Aucun Américain né au 21e siècle ne peut imaginer la vie sans ces appareils. Pourtant, à l’époque, ce type ou tout type de gain était inimaginable.
Ce qui a rendu la prochaine vague de développement des transistors, c’est la volonté du gouvernement américain au début des années 1950 de financer des recherches qui semblaient abstraites et peu pratiques à l’époque. Le ministère de la Défense, en particulier l’Office of Naval Research (ONR), a versé des millions de personnes dans la physique des États à travers des contrats flexibles qui couvraient l’équipement de laboratoire, les salaires des professeurs et les allocations de diplômés, aidant à jeter les bases du modèle fédéral actuel de soutien à la recherche universitaire. Cette approche a suivi le rapport Landmark de 1945 de Vannevar Bush «Science, la frontière sans fin», qui a exhorté le financement fédéral continu pour la recherche en temps de paix.
En 1950, la National Science Foundation (NSF) nouvellement créée a rejoint l’ONR avec son modeste budget de 3,5 millions de dollars, les programmes de recherche de semence dans des universités, notamment le MIT, Stanford et Caltech. La NSF a rapidement été la mise au point le système de subventions à comité de lecture compétitive qui sous-tend la science américaine aujourd’hui, soutenant les avancées dans tous les domaines, du développement d’Internet et des vaccins Covid-19 aux découvertes entourant les ondes gravitationnelles et les matériaux quantiques.
C’est l’essence de la science fondamentale: le travail motivé par la curiosité plutôt que par un plan d’affaires ou une feuille de route du projet, produisant souvent des percées que personne n’aurait pu prévoir. Les découvertes des lasers, la double hélice de l’ADN et les algorithmes alimentent désormais l’intelligence artificielle qui sont maintenant omniprésente sont toutes nées de la même manière.
Cependant, le système qui, au fil des décennies, a permis des découvertes aussi incroyables, généralement financées par des subventions fédérales, est désormais serrée si étroitement que cela affamé le travail même qui produit des percées et rend la découverte à long terme plus difficile à maintenir.
Dans les agences fédérales, de nouvelles propositions pour plafonner les «coûts indirects» – les universités aériennes dépendent pour soutenir les laboratoires, les installations et le personnel de recherche – constituent une menace sérieuse pour l’entreprise de recherche. La réduction des remboursements des frais généraux des 60% traditionnels ou 70% à seulement 15% obligerait les universités à assumer la différence avec des budgets déjà tendus. Le résultat ne sera pas une comptabilité abstraite: les programmes d’études supérieures se rétréciront et, dans certains cas, disparaîtront, car les institutions ont du mal à compenser les coupes drastiques dans la recherche parrainée par le gouvernement fédéral.
La réduction des budgets de la recherche fédérale oblige les institutions comme Harvard et l’Université de Pennsylvanie pour réduire le nombre d’étudiants diplômés admis dans des programmes de base et de sciences et d’ingénierie appliqués. Cela mène également à la étagère ou à la coupe de projets déjà approuvés et qui soutiennent déjà la recherche et les moyens de subsistance des doctorants.
Cette rupture dans le pipeline de la créativité et des idées du pays ne menace pas seulement de ralentir l’innovation – elle menace de le couper. Un pays qui a une fois donné le rythme dans la recherche publique et privée est désormais à risque de renoncer à son avance dans la course qui définira l’avenir.
Le financement de la science fondamentale n’est pas seulement notre investissement le plus intelligent à l’avenir, c’est un devoir moral. Prouver le point, le boom de l’IA d’aujourd’hui peut ressembler à un miracle du jour au lendemain, mais il repose sur des décennies de recherche fondamentale en physique et en informatique. Dans les années 1980, les physiciens tenaces ont expérimenté des «réseaux de neurones», des modèles informatiques inspirés des cellules cérébrales. Beaucoup ont rejeté le travail comme inefficace et peu pratique, mais parce que les agences gouvernementales ont apprécié de poser des questions profondes, même impopulaires, le travail s’est poursuivi. Cette persistance a rendu possible la révolution de l’IA d’aujourd’hui.
Les percées prêtes à améliorer la vie de nos enfants – y compris les technologies quantiques, l’énergie durable et les diagnostics médicaux avancés – se produisent déjà dans les universités américaines. Mais ils ne deviendront de vraies technologies que si, en tant que nation, nous choisissons de les financer. De l’intérieur du laboratoire Caltech où je conçois et construit de nouveaux matériaux avec des propriétés sans précédent et uniques, de l’échelle nanométrique au monde macro, je vois ce qu’il faut.
Dans la science, comme dans d’autres domaines, les progrès interviennent souvent après des dizaines – voire des centaines – des essais ratés, chacun nous apprenant quelque chose sur ce qui pourrait éventuellement fonctionner. Les progrès se construisent sur les élèves qui apprennent à repousser les limites et sur les scientifiques de différentes disciplines qui apprennent les langues les uns des autres pour s’attaquer aux problèmes sans réponses prêtes à l’emploi – contrairement aux solutions bien rangées auxquelles nous nous attendons à un manuel.
Ce travail peut être invisible pour la plupart, même pour les élus qui décident finalement du financement, mais c’est le fondement des technologies très visibles sur lesquelles nous comptons aujourd’hui et dépendra de plus en plus à l’avenir.
La question pour nous tous, les consommateurs, les contribuables et les parents est simple: avons-nous le courage de continuer à investir dans les connaissances pour elle-même, comme les générations précédentes l’ont fait pour nous? Si nous faiblissons maintenant, la prochaine grande percée – un remède contre le diabète de type 1, l’énergie de fusion pour alimenter nos villes sans carbone, ou les batteries de nouvelle génération qui permettent à un téléphone fonctionner pendant un an sans se recharger – peut encore émerger. Mais il ne portera pas le tag «Made in the USA»
Julia R. Greer est professeure de science des matériaux, de mécanique et d’ingénierie médicale à Caltech et membre de la National Academy of Sciences des États-Unis.