La proposition de loi, parrainée par les démocrates Ted Lieu et Don Beyer, ainsi que par les républicains Zach Nunn et Marcus Molinaro, est de portée modeste, mais a une chance de devenir une loi depuis qu'une version du Sénat a été introduite en novembre dernier par le républicain Jerry Moran et le démocrate Mark Warner.

S'il est approuvé, le projet de loi exigera des agences fédérales qu'elles adoptent les lignes directrices en matière d'intelligence artificielle dévoilées par le ministère du commerce l'année dernière.

Il exigerait également que le département du commerce élabore des normes spécifiques pour les fournisseurs d'IA du gouvernement américain et demanderait au chef de la politique des marchés publics fédéraux d'élaborer un texte exigeant que ces fournisseurs "fournissent un accès approprié aux données, modèles et paramètres... pour permettre des tests et des évaluations suffisants", selon le projet de loi.

L'IA générative, qui peut créer du texte, des photos et des vidéos en réponse à des questions ouvertes, a suscité ces derniers mois de l'enthousiasme, mais aussi des craintes qu'elle ne rende certains emplois obsolètes et ne bouleverse les élections en rendant difficile la distinction entre les faits et les fausses informations. Dans des cas extrêmes, on craint que l'IA ne permette à des acteurs malveillants d'accéder à des infrastructures critiques.

Les États-Unis ont pris des mesures timides pour réglementer l'IA, mais l'Europe est beaucoup plus avancée.

En octobre dernier, le président américain Joe Biden a signé un décret visant à rendre l'IA plus sûre, en exigeant des développeurs de systèmes d'IA qui présentent des risques pour la sécurité nationale, l'économie, la santé publique ou la sécurité des États-Unis qu'ils partagent les résultats des tests de sécurité avec le gouvernement américain, avant que ces systèmes ne soient rendus publics.