Deux lettres et quatre chiffres créent la panique dans la Silicon Valley depuis quelques mois : “SB 1047”. Un sigle qui fait référence à un projet de loi californien, dont le but est de réglementer l’industrie de l’intelligence artificielle. Largement inspiré par l’AI Act de l’Union européenne, le texte vise à empêcher les dérives de l’IA, tout en laissant les entreprises innover. Les pontes du secteur se sont alarmés de ce surcroît de régulation.
Depuis, une intense bataille s’est engagée entre les lobbyistes de l’industrie d’un côté, et le législateur californien de l’autre, qui pourrait se prononcer à la fin du mois d’août.
Un texte pour prévenir les dérives
Le projet de loi vise à responsabiliser les entreprises sur plusieurs points. Il interdirait aux développeurs de commercialiser ou de rendre disponible leurs modèles d’intelligence artificielle si ces derniers risquent “de causer des dommages critiques”. Le texte exigerait également que les créateurs d’IA effectuent un audit annuel afin de confirmer que leurs travaux répondent aux exigences de la loi.
Il imposerait aussi de déclarer à un organisme mis en place par le gouvernement “tout incident de sécurité lié à l’intelligence artificielle “, et prévoirait des protections pour les whistleblowers, ces employés témoins de mauvaises pratiques dans leur entreprise qui décident de les dénoncer. Enfin, la Californie exigerait des entreprises qu’elles mettent en place un “kill switch”, un dispositif capable de mettre immédiatement hors ligne un modèle d’intelligence artificielle qui présenterait un danger.
“Ces règles entreraient en vigueur dès la conception des modèles, rappelle Nathalie Beslay, avocate spécialisée dans la régulation de la tech et de l’intelligence artificielle. Le projet de loi considère ces modèles comme un produit, et non pas comme des outils. D’où ses exigences de qualité, de sécurité et de fiabilité envers ces IA, pour neutraliser les risques liés à des hallucinations et des mésusages”.
Le texte concerne avant tout les modèles de “grosse puissance”, précise Nathalie Beslay. Il cible ainsi ceux dont le coût d’entraînement a dépassé les 100 millions de dollars – ce qui est dans la moyenne des modèles comme ChatGPT. Certains experts estiment cependant que d’ici quelques années, faire tourner des LLM [NDLR : grand modèle de langage] pourrait coûter jusqu’à plusieurs milliards de dollars. La loi concernerait donc la grande majorité des IA.
Les lobbys de la tech ont obtenu des aménagements
Voilà justement ce qui fait peur aux entreprises du secteur : l’application de cette loi changerait radicalement la façon dont la majorité des modèles de langage et des IA génératives est développée. En juin dernier, l’accélérateur de start-up Y Combinator a partagé une lettre ouverte, signée par une centaine de personnes issues de l’industrie, affirmant que “le projet de loi pourrait involontairement menacer le dynamisme de l’économie technologique californienne et nuire à la concurrence”. Les auteurs appelaient notamment le législateur à renoncer à certaines mesures, ou à les adoucir.
OpenAI, longtemps silencieux dans cette controverse, a finalement pris la parole le 21 août. Dans une lettre envoyée au sénateur à l’origine du texte, la compagnie explique que “SB 1047” risque de “ralentir le rythme de l’innovation” et d'”inciter les entrepreneurs californiens à quitter l’État à la recherche de meilleures opportunités ailleurs”. Cette prise de parole est particulièrement étonnante, les dirigeants de l’entreprise ayant toujours demandé que le secteur soit régulé. En 2023, lors d’une audition au Sénat américain, Sam Altman, l’un des cofondateurs, avait exhorté le gouvernement à prendre des mesures pour encadrer l’intelligence artificielle. Plus récemment, OpenAI disait s’inquiéter de la dépendance affective que son IA pourrait créer chez certains utilisateurs.
Comme les start-up européennes qui avaient arraché plusieurs aménagements dans l’AI Act, leurs homologues américaines ont obtenu gain de cause sur certains points, révèle le site TechCrunch. Le projet de loi ne permet plus au procureur de poursuivre les entreprises pour négligence avant qu’un accident ne se soit produit. En revanche, il sera possible de leur demander de cesser leur activité, ou de se retourner contre les développeurs, une fois l’accident avéré. La création d’une agence gouvernementale de contrôle a également été abandonnée.
Une loi bientôt obsolète ?
Les craintes des start-up ne sont pas tout à fait infondées. Les législateurs ont souvent du mal à saisir toutes les subtilités de leurs innovations techniques. Alors que l’IA progresse à toute vitesse, ces lois risquent d’ailleurs d’être bientôt obsolètes. Le règlement européen définit, par exemple, les modèles comme “présentant un risque systémique” lorsqu’ils ont une capacité de calcul supérieure à 10 puissance 25Flop. Ce seuil protège les plus petits acteurs : il n’est pour l’instant dépassé que par ChatGPT d’OpenAI et Gemini de Google. Mais il sera sans doute aisé à franchir d’ici quelques années. Le périmètre d’action du texte risque donc de s’élargir grandement.
Les mêmes critiques se font entendre pour “SB 1047”. “Compte tenu des progrès rapides de l’informatique, il est probable que dans peu de temps, le seuil actuel fixé par la législation sera dépassé, y compris par les start-up, les chercheurs et les institutions académiques”, explique-t-on chez Mozilla.
Certains risques agités par les acteurs de l’IA sont cependant grossis. Le texte de loi engendrera, certes, des coûts supplémentaires, mais “le budget de l’entraînement des IA est déjà tellement élevé que le coût de la régulation est infime”, constate Nathalie Beslay. Quant aux risques d’exil, ils sont, selon l’experte, surestimés : “les entreprises américaines n’ont pas fui l’Europe malgré le RGPD, le règlement sur la protection des données.”
“C’est toujours le même débat quand on parle d’encadrement des technologies, on oppose régulation et innovation”, reprend Nathalie Beslay. Une approche simpliste, note un rapport du National Bureau of Economic Research. Selon l’organisme de recherche, si une économie plus réglementée est effectivement susceptible de produire moins d’innovation, lorsque ses entreprises innovent, “elles ont tendance à faire des percées plus radicales, qui permettent d’économiser de la main-d’œuvre”. L’Union européenne a parfois plus de flair qu’on ne lui en accorde.
Source