Les entreprises d'intelligence artificielle comme OpenAI cherchent à surmonter les retards et les défis inattendus dans la recherche de modèles de langage toujours plus grands en développant des techniques de formation qui utilisent des moyens plus humains pour permettre aux algorithmes de "penser".

Une douzaine de scientifiques, de chercheurs et d'investisseurs dans le domaine de l'IA ont déclaré à Reuters qu'ils pensaient que ces techniques, qui sont à la base du modèle o1 récemment publié par OpenAI, pourraient remodeler la course aux armements dans le domaine de l'IA et avoir des répercussions sur les types de ressources dont les entreprises d'IA ont une demande insatiable, de l'énergie aux types de puces.

OpenAI a refusé de commenter cet article. Après la publication du chatbot viral ChatGPT il y a deux ans, les entreprises technologiques, dont les valorisations ont largement profité du boom de l'IA, ont publiquement soutenu que la "mise à l'échelle" des modèles actuels par l'ajout de données et de puissance de calcul conduirait systématiquement à l'amélioration des modèles d'IA.

Mais aujourd'hui, certains des scientifiques les plus éminents dans le domaine de l'IA s'expriment sur les limites de cette philosophie du "plus c'est gros, mieux c'est".

Ilya Sutskever, cofondateur des laboratoires d'IA Safe Superintelligence (SSI) et OpenAI, a récemment déclaré à Reuters que les résultats de l'augmentation de la préformation - la phase de formation d'un modèle d'IA qui utilise une grande quantité de données non étiquetées pour comprendre les modèles et les structures du langage - ont atteint un plateau.

M. Sutskever est largement reconnu comme l'un des premiers défenseurs de l'idée de réaliser des progrès considérables dans le domaine de l'IA générative en utilisant davantage de données et de puissance de calcul pour le préapprentissage, ce qui a finalement donné naissance à ChatGPT. M. Sutskever a quitté OpenAI au début de l'année pour fonder SSI.

"Les années 2010 ont été l'âge de la mise à l'échelle, mais nous sommes à nouveau à l'âge de l'émerveillement et de la découverte. Tout le monde est à la recherche de la prochaine chose", a déclaré M. Sutskever. "Il est plus important que jamais de mettre à l'échelle ce qui est juste.

M. Sutskever a refusé de donner plus de détails sur la manière dont son équipe aborde le problème, se contentant d'indiquer que SSI travaille sur une autre approche pour développer la préformation.

En coulisses, les chercheurs des principaux laboratoires d'IA ont connu des retards et des résultats décevants dans la course à la publication d'un grand modèle de langage qui surpasse le modèle GPT-4 d'OpenAI, qui date de près de deux ans, selon trois sources familières avec les questions privées.

Les "entraînements" pour les grands modèles peuvent coûter des dizaines de millions de dollars en faisant fonctionner simultanément des centaines de puces. Les chercheurs peuvent ne pas connaître les performances des modèles jusqu'à la fin de l'exécution, ce qui peut prendre des mois.

Un autre problème est que les grands modèles de langage absorbent d'énormes quantités de données, et que les modèles d'IA ont épuisé toutes les données facilement accessibles dans le monde. Les pénuries d'électricité ont également entravé les cycles de formation, car le processus nécessite de grandes quantités d'énergie.

Pour surmonter ces difficultés, les chercheurs explorent le "calcul en temps réel", une technique qui améliore les modèles d'IA existants pendant la phase dite "d'inférence", c'est-à-dire lorsque le modèle est utilisé. Par exemple, au lieu de choisir immédiatement une seule réponse, un modèle pourrait générer et évaluer plusieurs possibilités en temps réel, pour finalement choisir la meilleure voie à suivre.

Cette méthode permet aux modèles de consacrer davantage de puissance de traitement à des tâches difficiles telles que des problèmes de mathématiques ou de codage ou des opérations complexes qui exigent un raisonnement et une prise de décision semblables à ceux des humains.

"Il s'est avéré que le fait de faire réfléchir un robot pendant seulement 20 secondes lors d'une partie de poker a permis d'obtenir les mêmes performances que le fait de multiplier le modèle par 100 000 et de l'entraîner pendant 100 000 fois plus longtemps", a déclaré Noam Brown, chercheur à l'OpenAI qui a travaillé sur o1, lors de la conférence TED sur l'IA qui s'est tenue à San Francisco le mois dernier.

OpenAI a adopté cette technique dans son nouveau modèle connu sous le nom de "o1", anciennement connu sous les noms de Q* et Strawberry, dont Reuters a fait état pour la première fois en juillet. Le modèle O1 peut "réfléchir" à des problèmes en plusieurs étapes, à l'instar du raisonnement humain. Il implique également l'utilisation de données et de commentaires provenant de doctorants et d'experts de l'industrie. La sauce secrète de la série O1 est un autre ensemble d'entraînements effectués sur des modèles "de base" comme le GPT-4, et l'entreprise affirme qu'elle prévoit d'appliquer cette technique à des modèles de base plus nombreux et plus importants.

Parallèlement, des chercheurs d'autres laboratoires d'IA de premier plan, tels que Anthropic, xAI et Google DeepMind, ont également travaillé au développement de leurs propres versions de la technique, selon cinq personnes au fait de ces travaux.

"Nous voyons beaucoup de fruits à portée de main que nous pouvons cueillir pour améliorer ces modèles très rapidement", a déclaré Kevin Weil, chef de produit chez OpenAI, lors d'une conférence technologique en octobre. "Le temps que les gens rattrapent leur retard, nous essaierons d'avoir trois longueurs d'avance.

Google et xAI n'ont pas répondu aux demandes de commentaires et Anthropic n'a pas fait de commentaire dans l'immédiat.

Les implications pourraient modifier le paysage concurrentiel du matériel d'IA, dominé jusqu'à présent par la demande insatiable pour les puces d'IA de Nvidia. D'éminents investisseurs en capital-risque, de Sequoia à Andreessen Horowitz, qui ont versé des milliards pour financer le développement coûteux de modèles d'IA dans de nombreux laboratoires d'IA, dont OpenAI et xAI, prennent note de la transition et évaluent l'impact sur leurs coûteux paris.

"Ce changement nous fera passer d'un monde de clusters massifs de pré-entraînement à des nuages d'inférence, qui sont des serveurs distribués basés sur le nuage pour l'inférence", a déclaré Sonya Huang, partenaire chez Sequoia Capital, à Reuters.

La demande de puces d'IA de Nvidia, qui sont les plus pointues, a alimenté son ascension pour devenir l'entreprise la plus précieuse au monde, dépassant Apple en octobre. Contrairement aux puces d'apprentissage, où Nvidia domine, le géant des puces pourrait être confronté à une plus grande concurrence sur le marché de l'inférence.

Interrogée sur l'impact possible sur la demande de ses produits, Nvidia a rappelé les récentes présentations de l'entreprise sur l'importance de la technique qui sous-tend le modèle o1. Son PDG, Jensen Huang, a parlé d'une demande croissante d'utilisation de ses puces pour l'inférence.

"Nous avons maintenant découvert une deuxième loi d'échelle, et il s'agit de la loi d'échelle au moment de l'inférence... Tous ces facteurs ont conduit à une demande incroyablement élevée pour Blackwell", a déclaré Huang le mois dernier lors d'une conférence en Inde, en faisant référence à la dernière puce d'IA de l'entreprise.