Décret exécutif de Newsom AI

Crédit photo : Steve Johnson

Que la bataille entre le gouvernement fédéral et l’État en matière d’intelligence artificielle se poursuive : suite à la publication du cadre politique national pour l’intelligence artificielle de la Maison Blanche, le gouverneur de Californie, Gavin Newsom, a signé un décret à multiples facettes sur l’IA.

Le gouverneur Newsom a publié cet ordre hier, peu de temps après que le Cadre ait introduit diverses « recommandations législatives » au niveau fédéral. Sans surprise, étant donné le moment choisi, les règles californiennes en matière d’IA présentent un aspect politique.

(Les recommandations de la Maison Blanche, nous signalé plus tôt en marsa souligné l’objectif d’établir « un cadre politique fédéral en matière d’IA » pour « empêcher une mosaïque fragmentée de réglementations étatiques qui nuiraient à notre compétitivité nationale. »)

Cela ressort assez clairement du titre du communiqué de presse correspondant : « Alors que Trump annule les protections, le gouverneur Newsom signe le premier décret de son genre pour renforcer les protections de l’IA et son utilisation responsable. »

Ajoutez à cela la longue liste de plaintes de titulaires de droits contre les principaux développeurs – plus récemment, BMG réclamations pour contrefaçon contre Anthropic – et on peut affirmer sans se tromper que le paysage réglementaire de l’IA contient plus que quelques éléments mobiles.

En gardant l’accent sur les nouvelles réglementations californiennes, l’ordonnance demande au Département des services généraux (DGS) et au Département de technologie (CDT) de recommander de « nouvelles certifications » pour les « processus de passation de marchés publics » impliquant les développeurs d’IA.

Entre autres choses, lesdites certifications aborderont les garanties visant à prévenir les utilisations abusives impliquant des « contenus illégaux », y compris les deepfakes sexuellement explicites ; « préjugés préjudiciables » ; et les violations « des droits civils et des libertés civiles telles que la liberté d’expression, le vote et (et) l’autonomie humaine ».

De plus, l’Agence des opérations gouvernementales, « en consultation avec la DGS et la CDT », dispose de 120 jours pour proposer « toute réforme des dispositions sur la responsabilité des entrepreneurs » dans le même esprit que celles soulignées ci-dessus.

Plus directement lié à la confrontation réglementaire entre le fédéral et l’État : le responsable de la sécurité de l’information de CDT « examinera toute nouvelle désignation d’entreprises comme présentant des risques pour la chaîne d’approvisionnement par le gouvernement fédéral ».

Et si le responsable « conclut que la désignation est inappropriée », la DGS et la CDT « publieront conjointement des directives garantissant que les départements et agences pourront continuer à s’approvisionner facilement auprès de cette entreprise ».

En conclusion, l’ordonnance appelle également les agences à établir « l’accès des employés aux outils GenAI approuvés pour les cas d’utilisation générale avec des garanties appropriées en matière de confidentialité et de cybersécurité ».

Le plus intéressant pour les détenteurs de droits d’auteur : le décret a ordonné l’élaboration de « guides de bonnes pratiques permettant aux ministères et aux agences de filigraner de manière appropriée » toutes les « images ou vidéos générées par l’IA ou manipulées de manière significative ».

À plus long terme, faire des filigranes IA la norme à tous les niveaux serait, bien sûr, une étape radicale – et une étape avec de multiples considérations sous la surface. Comment cela affecterait-il la collection croissante de créations intégrant, mais pas uniquement, l’IA générative ? Et où sera tracée la limite des « manipulations significatives » ?

Le temps nous le dira, mais il sera utile de suivre l’évolution de la réglementation de l’IA – y compris en Europe, où plusieurs litiges juridiques liés à l’IA se déroulent – ​​avancent.





Source link