(AOF) - "DeepSeek fait évoluer l’IA, mais ne la révolutionne pas", affirme Columbia Threadneedle, jugeant que "certains éléments clés de l’argumentaire lié à DeepSeek sont erronés". "La meilleure façon de comprendre DeepSeek est de l’envisager comme une innovation parmi beaucoup d’autres qui améliorent rapidement les performances de l’IA tout en réduisant son coût", estime la société de gestion, jugeant l’adoption de l’IA "sera déterminée par sa qualité et sa performance, et non par son coût".
Si selon ses créateurs, 6 millions de dollars auraient suffi à développer le dernier grand modèle de langage (LLM) de DeepSeek, sur un nombre relativement restreint d'unités de traitement graphique (GPU), lui permettant d'égaler les performances des leaders du secteur, GPT-4 d'OpenAI ou Claude d'Anthropic.
Pour Columbia Threadneedle, ce chiffre "ne reflète pas toute l'étendue des coûts supportés": cela revient à dire que l'on a construit une voiture pour 1 000 dollars, "sans tenir compte du coût de l'usine, des ingénieurs et des dizaines d'années de recherche dans le secteur automobile".
La véritable innovation réside dans le modèle de raisonnement de DeepSeek, R1. Si DeepSeek semble avoir démontré que la création de modèles de raisonnement est moins compliquée ou onéreuse qu'on le pensait, il est important qu'il fonctionne avec une grande précision, et les performances de DeepSeek "ne sont apparemment pas à la hauteur de celles d'OpenAI ou de Google actuellement".