Le 29 août, la législature californienne a adopté Projet de loi 1047 du Sénat — la loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle de pointe — et l’a envoyée au gouverneur Gavin Newsom pour signature. Le choix de Newsom, qui doit être fait d’ici le 30 septembre, est binaire : l’abolir ou en faire une loi.
Reconnaissant les dommages potentiels que pourrait causer l’IA avancée, le projet de loi SB 1047 exige que les développeurs de technologies intègrent des mesures de protection lorsqu’ils développent et déploient ce que le projet de loi appelle des « modèles couverts ». Le procureur général de Californie peut faire respecter ces exigences en engageant des actions civiles contre les parties qui ne prennent pas « des précautions raisonnables » pour 1) que leurs modèles ne causeront pas de dommages catastrophiques, ou 2) que leurs modèles puissent être arrêtés en cas d’urgence.
De nombreuses entreprises d’IA de premier plan s’opposent au projet de loi, soit individuellement, soit par le biais d’associations professionnelles. Elles s’opposent notamment au fait que la définition des modèles couverts est trop rigide pour tenir compte des progrès technologiques, qu’il est déraisonnable de les tenir responsables des applications nuisibles développées par d’autres et que le projet de loi dans son ensemble étouffera l’innovation et paralysera les petites start-ups qui n’ont pas les ressources nécessaires pour se conformer à la loi.
Ces objections ne sont pas futiles ; elles méritent d’être prises en considération et très probablement d’autres amendements au projet de loi. Mais le gouverneur devrait quand même le signer ou l’approuver, car un veto signifierait qu’aucune réglementation de l’IA n’est acceptable maintenant et probablement jusqu’à ce que des dommages catastrophiques se produisent. Une telle position n’est pas la bonne pour les gouvernements qui s’attaquent à cette technologie.
L’auteur du projet de loi, le sénateur Scott Wiener (D-San Francisco), a discuté avec le secteur de l’IA sur un certain nombre d’itérations du projet de loi avant son adoption législative finale. Au moins une grande entreprise d’IA – Anthropic – a demandé des modifications spécifiques et importantes au texte, dont beaucoup ont été intégrées dans le projet de loi final. Depuis que la législature l’a adopté, le PDG d’Anthropic a dit que ses « avantages dépassent probablement ses coûts… (bien que) certains aspects du projet de loi semblent (toujours) préoccupants ou ambigus ». Les preuves publiques à ce jour suggèrent que la plupart des autres sociétés d’IA a simplement choisi de s’opposer au projet de loi par principeplutôt que de s’engager dans des efforts spécifiques pour le modifier.
Que penser d’une telle opposition, d’autant plus que les dirigeants de certaines de ces entreprises ont publiquement exprimé leurs inquiétudes quant aux dangers potentiels de l’IA avancée ? En 2023, les PDG d’OpenAI et de DeepMind de Google, par exemple, signé une lettre ouverte qui comparait les risques de l’IA à ceux d’une pandémie et d’une guerre nucléaire.
On peut raisonnablement en conclure que, contrairement à Anthropic, ils s’opposent à toute forme de réglementation obligatoire. Ils veulent se réserver le droit de décider quand les risques d’une activité, d’un effort de recherche ou de tout autre modèle déployé l’emportent sur ses avantages. Plus important encore, ils veulent que ceux qui développent des applications basées sur leurs modèles couverts soient pleinement responsables de l’atténuation des risques. Des affaires judiciaires récentes ont suggéré Les parents qui mettent des armes entre les mains de leurs enfants portent une certaine responsabilité juridique quant aux conséquences de ces actes. Pourquoi les entreprises d’intelligence artificielle devraient-elles être traitées différemment ?
Les entreprises d’IA souhaitent que le public leur donne carte blanche malgré un conflit d’intérêt évident : il ne faut pas faire confiance aux entreprises à but lucratif pour prendre des décisions qui pourraient entraver leurs perspectives de profit.
Nous avons déjà connu cette situation. En novembre 2023, le conseil d’administration d’OpenAI a licencié son PDG, estimant que, sous sa direction, l’entreprise s’engageait sur une voie technologique dangereuse. En quelques jours, diverses parties prenantes d’OpenAI ont pu revenir sur cette décision, le réintégrer et évincer les membres du conseil qui avaient plaidé pour son licenciement. Ironiquement, OpenAI avait été spécifiquement structuré pour permettre au conseil d’administration d’agir comme il l’a fait – malgré le potentiel de profit de l’entreprise, le conseil était censé veiller à ce que l’intérêt public passe avant tout.
Si le projet de loi SB 1047 est rejeté, les forces anti-réglementation proclameront une victoire qui démontrera la sagesse de leur position, et elles seront peu motivées à travailler sur une législation alternative. L’absence de réglementation significative joue en leur faveur, et elles s’appuieront sur un veto pour maintenir ce statu quo.
Le gouverneur pourrait également faire de la SB 1047 une loi, en invitant ouvertement ses opposants à contribuer à corriger ses défauts spécifiques. Avec ce qu’ils considèrent comme une loi imparfaite, les opposants au projet de loi seraient fortement incités à travailler – et à travailler de bonne foi – pour la corriger. Mais l’approche de base serait que l’industrie, et non le gouvernement, fasse valoir son point de vue sur ce qui constitue une attention raisonnable appropriée concernant les propriétés de sécurité de ses modèles avancés. Le rôle du gouvernement serait de s’assurer que l’industrie fasse ce qu’elle dit elle-même qu’elle devrait faire.
Les conséquences de l’abandon du projet de loi SB 1047 et du maintien du statu quo sont considérables : les entreprises pourraient faire progresser leurs technologies sans retenue. L’acceptation d’un projet de loi imparfait constituerait une étape significative vers un meilleur environnement réglementaire pour toutes les parties concernées. Ce serait le début plutôt que la fin de la réglementation de l’IA. Cette première étape donne le ton de ce qui va suivre et établit la légitimité de la réglementation de l’IA. Le gouverneur devrait signer le projet de loi SB 1047.
Herbert Lin est chercheur principal au Centre pour la sécurité et la coopération internationales de l’Université de Stanford et membre de la Hoover Institution. Il est l’auteur de « Cyber Threats and Nuclear Weapons ».“