La sortie de ChatGPT d’OpenAI fin 2022 a été comme le coup de départ, déclenchant une course entre les grandes entreprises technologiques pour développer des systèmes d’IA générative de plus en plus puissants. Des géants comme Microsoft, Google et Meta se sont précipités pour déployer de nouveaux outils d’intelligence artificielle, tandis que des milliards de capital-risque affluaient dans les startups d’IA.
Parallèlement, un nombre croissant de personnes travaillant dans le domaine de l’IA et effectuant des recherches dans ce domaine ont commencé à tirer la sonnette d’alarme : la technologie évoluait plus vite que prévu. On craignait que, dans leur hâte de dominer le marché, les entreprises ne commercialisent des produits avant qu’ils ne soient sûrs.
Au printemps 2023, plus de 1 000 chercheurs et chefs de file de l’industrie a appelé à une pause de six mois Les laboratoires d’IA se sont lancés dans la course pour déployer des « esprits numériques » que même leurs créateurs ne pouvaient pas comprendre, prédire ou contrôler de manière fiable. Cette technologie présente « de profonds risques pour la société et l’humanité », ont-ils averti. Les dirigeants des entreprises technologiques ont exhorté les législateurs à élaborer des réglementations pour prévenir les dommages.
C’est dans cet environnement que le sénateur Scott Wiener (D-San Francisco) a commencé à discuter avec des experts de l’industrie au sujet de l’élaboration d’une législation qui deviendrait Projet de loi 1047 du Sénatla loi sur l’innovation sûre et sécurisée pour les modèles d’intelligence artificielle de pointe. Ce projet de loi constitue une première étape importante vers un développement responsable de l’IA.
Alors que les législateurs de l’État ont introduit des dizaines de factures En réponse à diverses préoccupations liées à l’IA, notamment la désinformation électorale et la protection du travail des artistes, Wiener a adopté une approche différente. Son projet de loi vise à empêcher les dommages catastrophiques causés par l’utilisation abusive des systèmes d’IA.
Le projet de loi SB 1047 exigerait que les développeurs des modèles d’IA les plus puissants mettent en place des procédures de test et des mesures de protection pour empêcher que la technologie ne soit utilisée pour couper le réseau électrique, permettre le développement d’armes biologiques, mener des cyberattaques majeures ou d’autres dommages graves. Si les développeurs ne prennent pas les précautions raisonnables pour éviter des dommages catastrophiques, le procureur général de l’État pourrait les poursuivre en justice. Le projet de loi protégerait également les lanceurs d’alerte au sein des entreprises d’IA et créerait CalCompute, un cluster de cloud computing public qui serait disponible pour aider les startups, les chercheurs et les universitaires à développer des modèles d’IA.
Le projet de loi est soutenu par les principaux groupes de sécurité de l’IA, y compris certains des soi-disant parrains de l’IA qui a écrit dans une lettre au gouverneur Gavin Newsom « Compte tenu de l’ampleur des risques auxquels nous sommes confrontés, il s’agit d’une mesure législative remarquablement légère », a-t-il affirmé.
Mais cela n’a pas empêché une vague d’opposition de la part des entreprises technologiques, des investisseurs et des chercheurs, qui estiment que le projet de loi tient à tort les développeurs de modèles responsables de l’anticipation des dommages que les utilisateurs pourraient causer. Selon eux, cette responsabilité rendrait les développeurs moins disposés à partager leurs modèles, ce qui étoufferait l’innovation en Californie.
La semaine dernière, huit membres du Congrès de Californie ont écrit une lettre à Newsom pour l’exhorter à opposer son veto au projet de loi SB 1047 s’il est adopté par l’Assemblée législative. Le projet de loi, ont-ils fait valoir, est prématuré, avec une « insistance déplacée sur les risques hypothétiques » et les législateurs devraient plutôt se concentrer sur la réglementation des utilisations de l’IA qui causent des dommages aujourd’hui, comme l’utilisation de deepfakes dans les publicités électorales et le revenge porn.
Il existe de nombreux projets de loi intéressants qui s’attaquent aux abus immédiats et spécifiques de l’IA. Cela ne nie pas la nécessité d’anticiper et d’essayer de prévenir les dommages futurs, en particulier lorsque les experts du domaine appellent à l’action. Le projet de loi SB 1047 soulève des questions familières pour le secteur technologique et les législateurs. Quel est le bon moment pour réglementer une technologie émergente ? Quel est le bon équilibre pour encourager l’innovation tout en protégeant le public qui doit vivre avec ses effets ? Et peut-on remettre le génie dans la bouteille une fois la technologie déployée ?
Rester trop longtemps à l’écart du débat comporte des risques. Aujourd’hui, les législateurs tentent toujours de rattraper leur retard en matière de confidentialité des données et de limiter les atteintes aux réseaux sociaux. Ce n’est pas la première fois que les grands leaders technologiques déclarent publiquement qu’ils accueillent favorablement la réglementation de leurs produits, mais exercent ensuite un lobbying acharné pour bloquer des propositions spécifiques.
Idéalement, le gouvernement fédéral devrait prendre l’initiative de réglementer l’IA pour éviter une mosaïque de politiques étatiques. Mais le Congrès s’est montré incapable – ou peu disposé – à réglementer les grandes technologies. Pendant des années, les projets de loi visant à protéger la confidentialité des données et de réduire les risques en ligne pour les enfants sont au point mort. En l’absence d’action fédérale, la Californie, en particulier parce qu’elle abrite la Silicon Valley, a choisi de prendre les devants en adoptant des réglementations inédites sur la neutralité du Net, la confidentialité des données et la sécurité en ligne des enfants. L’IA ne fait pas exception. En effet, Républicains à la Chambre ont déjà déclaré qu’ils ne soutiendraient aucune nouvelle réglementation sur l’IA.
En adoptant le projet de loi SB 1047, la Californie peut faire pression sur le gouvernement fédéral pour qu’il établisse des normes et des réglementations qui pourraient remplacer la réglementation de l’État et, jusqu’à ce que cela se produise, la loi pourrait servir de filet de sécurité important.



