La lettre, datée du 22 mars et ayant recueilli plus de 1 800 signatures vendredi, demande un arrêt de six mois du développement de systèmes "plus puissants" que le nouveau GPT-4 d'OpenAI, soutenu par Microsoft, qui peut tenir une conversation de type humain, composer des chansons et résumer de longs documents.

Depuis que le prédécesseur de GPT-4, ChatGPT, a été lancé l'année dernière, des entreprises concurrentes se sont empressées de lancer des produits similaires.

La lettre ouverte affirme que les systèmes d'IA dotés d'une "intelligence compétitive humaine" présentent des risques profonds pour l'humanité. Elle cite 12 études réalisées par des experts, notamment des universitaires, ainsi que des employés actuels et anciens d'OpenAI, de Google et de sa filiale DeepMind.

Des groupes de la société civile aux États-Unis et dans l'UE ont depuis fait pression sur les parlementaires pour qu'ils freinent les recherches d'OpenAI. OpenAI n'a pas répondu immédiatement aux demandes de commentaires.

Les critiques ont accusé le Future of Life Institute (FLI), l'organisation à l'origine de la lettre qui est principalement financée par la Fondation Musk, de donner la priorité à des scénarios apocalyptiques imaginaires plutôt qu'à des préoccupations plus immédiates concernant l'IA, telles que les préjugés racistes ou sexistes programmés dans les machines.

Parmi les recherches citées figure "On the Dangers of Stochastic Parrots", un document bien connu coécrit par Margaret Mitchell, qui a précédemment supervisé la recherche éthique sur l'IA chez Google.

Mme Mitchell, aujourd'hui responsable de la recherche éthique au sein de la société d'IA Hugging Face, a critiqué la lettre, déclarant à Reuters qu'il n'était pas clair de savoir ce qui était considéré comme "plus puissant que le GPT4".

"En considérant un grand nombre d'idées douteuses comme acquises, la lettre affirme un ensemble de priorités et un discours sur l'IA qui profite aux partisans de la FLI", a-t-elle déclaré. "Ignorer les effets néfastes actuels est un privilège que certains d'entre nous n'ont pas.

Ses coauteurs, Timnit Gebru et Emily M. Bender, ont critiqué la lettre sur Twitter, cette dernière qualifiant certaines de ses affirmations de "farfelues".

Le président de la FLI, Max Tegmark, a déclaré à Reuters que la campagne n'était pas une tentative d'entraver l'avantage corporatif d'OpenAI.

"C'est assez hilarant. J'ai vu des gens dire 'Elon Musk essaie de ralentir la concurrence'", a-t-il déclaré, ajoutant que Musk n'avait joué aucun rôle dans la rédaction de la lettre. "Il ne s'agit pas d'une seule entreprise.

LES RISQUES ACTUELS

Shiri Dori-Hacohen, professeur adjoint à l'université du Connecticut, a également contesté le fait que son travail soit mentionné dans la lettre. L'année dernière, elle a cosigné un document de recherche dans lequel elle affirmait que l'utilisation généralisée de l'IA présentait déjà de graves risques.

Selon ses recherches, l'utilisation actuelle des systèmes d'IA pourrait influencer la prise de décision en matière de changement climatique, de guerre nucléaire et d'autres menaces existentielles.

Elle a déclaré à Reuters : "L'IA n'a pas besoin d'atteindre le niveau d'intelligence humaine pour exacerber ces risques.

"Il existe des risques non existentiels qui sont vraiment, vraiment importants, mais qui ne reçoivent pas le même type d'attention qu'à Hollywood.

Interrogé sur ces critiques, M. Tegmark, de FLI, a déclaré que les risques à court et à long terme de l'IA devaient être pris au sérieux.

"Si nous citons quelqu'un, cela signifie simplement que nous affirmons qu'il approuve cette phrase. Cela ne signifie pas qu'ils approuvent la lettre, ou que nous approuvons tout ce qu'ils pensent", a-t-il déclaré à Reuters.

Dan Hendrycks, directeur du Center for AI Safety, basé en Californie, également cité dans la lettre, s'en tient à son contenu, déclarant à Reuters qu'il est judicieux d'envisager des événements de type "cygne noir", c'est-à-dire des événements qui semblent improbables mais qui auraient des conséquences dévastatrices.

La lettre ouverte met également en garde contre l'utilisation d'outils d'IA générative pour inonder l'internet de "propagande et de mensonges".

M. Dori-Hacohen a déclaré qu'il était "plutôt riche" que M. Musk l'ait signée, citant une augmentation signalée de la désinformation sur Twitter à la suite de son acquisition de la plateforme, documentée par le groupe de la société civile Common Cause et d'autres.

Twitter lancera bientôt une nouvelle structure tarifaire pour l'accès à ses données de recherche, ce qui pourrait entraver la recherche sur le sujet.

"Cela a eu un impact direct sur le travail de mon laboratoire et sur celui d'autres personnes qui étudient la désinformation", a déclaré M. Dori-Hacohen. "Nous travaillons avec une main attachée dans le dos.

Musk et Twitter n'ont pas immédiatement répondu aux demandes de commentaires.