L'administration Biden a déclaré jeudi que les principales entreprises d'intelligence artificielle figurent parmi plus de 200 entités qui rejoignent un nouveau consortium américain visant à soutenir le développement et le déploiement sûrs de l'IA générative. La secrétaire d'État au commerce, Gina Raimondo, a annoncé la création du Consortium américain de l'Institut de sécurité de l'IA (AISIC), qui comprend OpenAI, Google (Alphabet), Anthropic et Microsoft, ainsi que Meta Platforms (Facebook), Apple, Amazon.com, Nvidia Palantir, Intel, JPMorgan Chase et Bank of America.

"Le gouvernement américain a un rôle important à jouer dans la définition des normes et le développement des outils dont nous avons besoin pour atténuer les risques et exploiter l'immense potentiel de l'intelligence artificielle", a déclaré Mme Raimondo dans un communiqué.

Le consortium, qui comprend également BP, Cisco Systems, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Visa et d'importantes institutions universitaires et agences gouvernementales, sera hébergé par l'U.S. AI Safety Institute (USAISI).

Le groupe est chargé de travailler sur les actions prioritaires définies dans le décret sur l'IA pris par le président Bidens en octobre, "y compris l'élaboration de lignes directrices pour les équipes d'intervention, l'évaluation des capacités, la gestion des risques, la sûreté et la sécurité, et le filigrane des contenus synthétiques".

L'année dernière, les grandes entreprises spécialisées dans l'IA se sont engagées à filigraner les contenus générés par l'IA afin de rendre la technologie plus sûre. L'expression "red-teaming" est utilisée depuis des années dans le domaine de la cybersécurité pour identifier de nouveaux risques, en référence aux simulations américaines de la guerre froide où l'ennemi était appelé "l'équipe rouge".

Le décret de M. Biden demande aux agences de fixer des normes pour ces tests et de se pencher sur les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité qui y sont liés.

En décembre, le ministère du commerce a déclaré qu'il prenait les premières mesures en vue de rédiger des normes et des orientations essentielles pour le déploiement et l'expérimentation de l'IA en toute sécurité.

Le consortium représente la plus grande collection d'équipes de test et d'évaluation et se concentrera sur la création des bases d'une "nouvelle science de la mesure de la sécurité de l'IA", a déclaré le ministère du commerce.

L'IA générative - qui peut créer du texte, des photos et des vidéos en réponse à des questions ouvertes - a suscité l'enthousiasme mais aussi la crainte qu'elle ne rende certains emplois obsolètes, qu'elle ne bouleverse les élections et qu'elle ne prenne le dessus sur les humains, ce qui pourrait avoir des effets catastrophiques.

Alors que l'administration Biden cherche à mettre en place des garde-fous, les efforts du Congrès pour adopter une législation sur l'IA sont au point mort, malgré de nombreux forums de haut niveau et propositions législatives. (Reportage de David Shepardson ; Rédaction de Jamie Freed)