DeepSeek, le nom va rester dans les mémoires.
Vous allez beaucoup entendre parler de DeepSeek prochainement, et cela risque de durer un bon moment. Pour résumer, la fabrication d’un modèle coûte cher : en temps de calcul, en électricité, et il faut encore réussir à mettre la main sur du matériel adéquat. Idéalement, il faudrait se trouver à proximité d’une centrale électrique, voire construire sa propre centrale et un data center équipé de GPU optimisés.
Et maintenant, un petit groupe de Chinois, dans un garage, propose gratuitement et en open source, avec une méthode d’apprentissage à 5 000 boules, qui surpasse o1 (le modèle d’openai réputé pour son raisonnement, affichant un QI de 120).
Le marché américain a très mal réagi !
(C’est peut-être le moment d’acheter du Nvidia, c’est les soldes.)
Alors mon dernier espoir, c'est la RD. Si des modèles prennent le dessus entre autres grâce à une meilleure efficacité énergétique, je ne peux que m'en réjouir.
La puissance de l'évolution de la RD chinoise est autant inquiétante pour l'économie occidentale qu'elle force l'admiration.
Mais ça m'a fait doucement sourire de voir les géants de la tech américains ravaler leur dents.
Par contre je ne suis pas totalement certain de la belle histoire "développée pour 100 fois moins", on sait que la Chine subventionne tout et dans le concours de bite mondial il faut bien rappeler qu'on existe avec de petites humiliations de temps en temps