"L'atténuation du risque d'extinction par l'IA devrait être une priorité mondiale au même titre que d'autres risques sociétaux tels que les pandémies et les guerres nucléaires", ont écrit plus de 350 signataires dans une lettre publiée par le Center for AI Safety (CAIS), une organisation à but non lucratif. Outre M. Altman, les signataires comprennent les PDG des sociétés d'IA DeepMind et Anthropic, ainsi que des cadres de Microsoft et de Google.

Geoffrey Hinton et Yoshua Bengio - deux des trois "parrains de l'IA" qui ont reçu le prix Turing 2018 pour leurs travaux sur l'apprentissage profond - et des professeurs d'institutions allant de Harvard à l'université chinoise de Tsinghua en font également partie.

Une déclaration de l'ACSI a pointé du doigt Meta, où travaille le troisième parrain de l'IA, Yann LeCun, pour ne pas avoir signé la lettre.

"Nous avons demandé à de nombreux employés de Meta de signer", a déclaré Dan Hendrycks, directeur du CAIS. Meta n'a pas répondu immédiatement aux demandes de commentaires.

La lettre a coïncidé avec la réunion du Conseil du commerce et de la technologie entre les États-Unis et l'Union européenne, qui s'est tenue en Suède et au cours de laquelle les responsables politiques devraient aborder la question de la réglementation de l'IA.

Elon Musk et un groupe d'experts de l'IA et de cadres de l'industrie ont été les premiers à évoquer les risques potentiels pour la société en avril.

"Nous avons adressé une invitation (à M. Musk) et nous espérons qu'il la signera cette semaine", a déclaré M. Hendrycks.

Les récents développements en matière d'IA ont permis de créer des outils qui, selon leurs partisans, peuvent être utilisés dans des applications allant du diagnostic médical à la rédaction de mémoires juridiques, mais cela a suscité des craintes que la technologie ne conduise à des violations de la vie privée, n'alimente des campagnes de désinformation et ne pose des problèmes avec les "machines intelligentes" qui pensent par elles-mêmes.

Cette mise en garde intervient deux mois après que l'organisation à but non lucratif Future of Life Institute (FLI) a publié une lettre ouverte similaire, signée par M. Musk et des centaines d'autres personnes, demandant une pause urgente dans la recherche avancée sur l'IA, en invoquant les risques qu'elle fait courir à l'humanité.

"Notre lettre a généralisé l'idée d'une pause, alors que celle-ci a généralisé l'idée d'une extermination", a déclaré le président du FLI, Max Tegmark, qui a également signé la lettre la plus récente. "Maintenant, une conversation ouverte et constructive peut enfin commencer.

M. Hinton, pionnier de l'IA, avait déjà déclaré à Reuters que l'IA pourrait constituer une menace "plus urgente" pour l'humanité que le changement climatique.

La semaine dernière, le PDG d'OpenAI, Sam Altman, a qualifié l'UE sur l'IA - les premiers efforts visant à créer une réglementation pour l'IA - de surréglementation et a menacé de quitter l'Europe. Il est revenu sur sa position quelques jours plus tard après avoir essuyé des critiques de la part de responsables politiques.

M. Altman est devenu le visage de l'IA après que son chatbot ChatGPT a pris d'assaut le monde entier. La présidente de la Commission européenne, Ursula von der Leyen, rencontrera M. Altman jeudi, et le chef de l'industrie européenne, Thierry Breton, le rencontrera à San Francisco le mois prochain.