DeepSeek "ne révolutionne pas" l'IA (Columbia Threadneedle)
Si selon ses créateurs, 6 millions de dollars auraient suffi à développer le dernier grand modèle de langage (LLM) de DeepSeek, sur un nombre relativement restreint d'unités de traitement graphique (GPU), lui permettant d'égaler les performances des leaders du secteur, GPT-4 d'OpenAI ou Claude d'Anthropic.
Pour Columbia Threadneedle, ce chiffre "ne reflète pas toute l'étendue des coûts supportés": cela revient à dire que l'on a construit une voiture pour 1 000 dollars, "sans tenir compte du coût de l'usine, des ingénieurs et des dizaines d'années de recherche dans le secteur automobile".
La véritable innovation réside dans le modèle de raisonnement de DeepSeek, R1. Si DeepSeek semble avoir démontré que la création de modèles de raisonnement est moins compliquée ou onéreuse qu'on le pensait, il est important qu'il fonctionne avec une grande précision, et les performances de DeepSeek "ne sont apparemment pas à la hauteur de celles d'OpenAI ou de Google actuellement".
