DeepSeek : un modèle IA vraiment low-cost ou un mirage marketing ?
L’intelligence artificielle progresse à une vitesse fulgurante, et chaque nouvel acteur cherche à se distinguer en affichant des performances inégalées à moindre coût. DeepSeek, présenté comme une alternative open source à OpenAI, a récemment fait sensation en annonçant avoir entraîné son modèle DeepSeek-R1 pour seulement 6 millions de dollars.
Mais en regardant de plus près, cette affirmation semble relever davantage du mirage marketing que de la réalité. En réalité, les investissements de DeepSeek atteindraient 1,6 milliard de dollars, avec une infrastructure bien plus massive que prétendu.
DeepSeek et son mythe du « low-cost »
L’argument principal avancé par DeepSeek repose sur un coût d’entraînement réduit comparé aux milliards dépensés par OpenAI pour GPT-4 ou Google pour Gemini.
Pourtant, une analyse plus approfondie révèle que DeepSeek dispose en réalité d’une infrastructure colossale comprenant 50 000 GPUs Nvidia (H100, H800 et H20). Ces chiffres contredisent totalement l’image d’un projet IA à faible budget.
Une réalité bien différente
Le rapport de SemiAnalysis a révélé que DeepSeek repose sur une puissance de calcul comparable à celle des plus grands laboratoires IA mondiaux. La startup chinoise aurait accédé à une quantité impressionnante de GPUs Nvidia, un élément qui invalide complètement l’affirmation d’un entraînement à « bas coût ».
De plus, le coût d’opération d’un tel parc informatique, incluant l’énergie et le stockage, entraîne des dépenses exponentielles. À titre de comparaison, OpenAI a dû investir des milliards pour développer ses modèles IA, ce qui éloigne encore davantage DeepSeek de l’image d’un acteur économiquement vertueux.
DeepSeek n’a pas répondu aux interrogations concernant ses coûts réels. Si les informations sur ces coûts cachés sont avérées, cela signifie que :
- L’investissement matériel total dépasserait les 1,6 milliard de dollars, bien au-delà des chiffres communiqués.
- Le coût de l’entraînement va bien au-delà des seuls GPU : il inclut la recherche, l’acquisition et le nettoyage des données, ainsi que le développement d’algorithmes spécifiques comme Multi-Head Latent Attention (MLA).
- Comparaison avec OpenAI : le coût annoncé par DeepSeek est similaire aux premiers entraînements de GPT-3.
Comparaison des coûts d’entrainement entre les différentes IA
En confrontant DeepSeek aux autres modèles IA du marché, plusieurs points clés ressortent :
Modèle | Coût estimé d’entraînement | Nombre de GPU | Open source ? | Performance |
---|---|---|---|---|
DeepSeek-R1 | 6 millions (officiel) / 1,6 milliard (réel) | 50 000 | Oui (mais partiellement) | Compétitif |
GPT-4 | Plusieurs milliards | +100 000 | Non | Leader actuel |
Gemini (Google) | Plusieurs milliards | +150 000 | Non | Compétitif |
Llama 3 (Meta) | Plusieurs centaines de millions | ~65 000 | Oui | Très bon |
On observe que DeepSeek n’est pas fondamentalement plus économique que ses concurrents, si l’on prend en compte les investissements réels. L’argument du low-cost semble davantage être un effet d’annonce qu’une réalité.
Pourquoi DeepSeek minimise-t-il ses coûts ?
Derrière cette stratégie de communication, plusieurs motivations peuvent être envisagées :
Une opération marketing pour concurrencer OpenAI
DeepSeek cherche clairement à déstabiliser les marchés financiers en présentant une IA soi-disant plus accessible et plus performante à moindre coût. Cette approche a pour but de brouiller les cartes et de créer un effet d’annonce puissant capable d’attirer à la fois investisseurs et chercheurs, tout en déstabilisant les géants établis.
Un levier géopolitique contre les géants américains
L’émergence de DeepSeek s’inscrit dans un contexte de rivalité technologique entre la Chine et les États-Unis. En affichant des coûts de développement radicalement inférieurs, DeepSeek alimente le discours selon lequel la Chine peut rattraper son retard en IA sans dépendre des entreprises américaines.
Les annonces de DeepSeek, ainsi que les nombreux projets open source, exercent une pression croissante sur OpenAI. Avec ses abonnements à 20 $ et son offre Pro à 200 $ par mois, OpenAI se voit dans l’obligation de revoir sa stratégie, sous peine de voir une grande partie de ses utilisateurs se détourner.
Suite au lancement de DeepSeek, OpenAI a enchaîné les annonces, notamment avec la sortie de son nouveau modèle o3, Deep Research et ChatGPT Gov. Sam Altman a reconnu qu’OpenAI se trouvait du « mauvais côté de l’histoire » et a suggéré que la société pourrait envisager de s’ouvrir à l’open source. Le projet Stargate n’a pas échappé aux critiques et a rapidement été pris pour cible.
Cette stratégie pourrait à terme pousser Washington à renforcer ses restrictions sur l’exportation de technologies IA vers la Chine.
Implications stratégiques pour Microsoft, OpenAI et Google
DeepSeek ne se contente pas de perturber le marché de l’IA, il pose aussi un enjeu stratégique majeur pour les géants américains. Microsoft, qui s’appuie principalement sur OpenAI pour son offre IA, pourrait voir en DeepSeek une alternative ou une menace.
Google, de son côté, doit faire face à une concurrence accrue sur le terrain de l’IA open source. Enfin, l’accès de DeepSeek aux puces Nvidia pourrait être remis en question par de nouvelles restrictions américaines sur l’exportation de semi-conducteurs avancés vers la Chine.
DeepSeek et son investisseur High-Flyer détiennent environ 50 000 GPUs Nvidia, un nombre comparable aux infrastructures des plus grands laboratoires d’IA américains.
Comparaison avec OpenAI et Google
DeepSeek-R1 rivalise avec les modèles OpenAI (O1), mais n’est pas toujours le leader sur tous les benchmarks.
Google a lancé Gemini Flash 2.0, un modèle moins médiatisé mais qui affiche des performances similaires à celles de R1.
DeepSeek est un acteur majeur de l’IA open-source, bien que son modèle économique ne soit pas clair.
L’impact de l’aspect Open Source de DeepSeek
Au-delà des coûts, l’un des éléments ayant eu le plus d’impact est l’aspect open source (partiel) de DeepSeek. Bien que ses jeux de données d’entraînement restent fermés, le code et les poids des modèles ont permis l’émergence de nombreux projets open source basés sur DeepSeek-R1 et V3, par exemple Open-R1.
Cela a conduit à des avancées significatives et a démontré que des modèles IA peuvent fonctionner sur des ordinateurs personnels sous une forme allégée. Cette capacité à exécuter des modèles IA sur du matériel plus accessible réduit considérablement les coûts d’inférence (le coût pour effectuer une requête).
Pour mieux comprendre les termes liés aux IA et LLM, je vous invite à lire le lexique simplifié pour mieux comprendre les concepts simples derrières ces mots très techniques.
Pour aller plus loin : L’exécution d’IA en local : une tendance en forte croissance
Des failles de sécurité inquiétantes
Malgré ses performances et son adoption rapide, DeepSeek présente aussi des failles de sécurité importantes. De nombreux chercheurs en cybersécurité estiment que la startup chinoise a fait des économies sur les mesures de protection de ses modèles.
Certains rapports font état de vulnérabilités exploitables qui pourraient poser des problèmes dans des applications sensibles. Une IA d’une telle ampleur, avec un impact grandissant dans le monde de l’open source, ne peut se permettre d’ignorer ces aspects critiques.
DeepSeek, une illusion stratégique ?
DeepSeek s’est imposé comme un acteur de poids en IA, mais son positionnement « low-cost » semble davantage relever du marketing bien orchestré que d’une véritable révolution économique.
Alors que l’IA devient un enjeu géopolitique de plus en plus central, DeepSeek pourrait bien représenter la nouvelle vague d’IA chinoises visant à défier les géants américains. Bien que la communication autour des coûts puisse faire débat, son impact sur l’écosystème de l’IA open source a incontestablement été positif.
A lire également : IA local : guide complet pour installer et utiliser un modèle sur votre ordinateur
Si vous appréciez nos articles, ne manquez les prochains en vous abonnant à Cosmo Games sur Google News, vous pouvez également nous suivre sur X (ex Twitter). N'hésitez pas à partager vos réactions, commentaires ou remarques dans les commentaires, afin d'enrichir le contenu, de mieux vous comprendre et intégrer les différents points de vue. Un partage sur les réseaux sociaux nous aide également beaucoup, merci pour votre soutien !