Lundi, Nvidia a annoncé Projet CHIFFRESun petit ordinateur de bureau destiné aux chercheurs, aux data scientists et aux étudiants qui souhaitent expérimenter des modèles d’IA, tels que des chatbots comme ChatGPT et des générateurs d’images, à la maison. L’appareil à 3 000 $, qui contient la nouvelle superpuce GB10 Grace Blackwell de Nvidia, a fait ses débuts au CES 2025 à Las Vegas. Il sera lancé en mai et pourra fonctionner comme un PC autonome ou se connecter à une machine Windows ou Mac.
Lundi au CES, le PDG de Nvidia, Jensen Huang, a décrit le nouveau système comme « une plate-forme de cloud computing qui se trouve sur votre bureau ». La société a également conçu le projet DIGITS comme un pont entre le développement de postes de travail et le déploiement dans le cloud. Les développeurs peuvent créer et tester des applications d’IA localement sur Project DIGITS, puis les déplacer vers des services cloud ou des centres de données utilisant du matériel Nvidia similaire.
La puce GB10 à l’intérieur de l’ordinateur Project DIGITS combine un GPU Nvidia Blackwell avec un processeur Grace à 20 cœurs basé sur l’architecture Arm. Nvidia a développé la puce en partenariat avec MediaTek et elle se connecte à 128 Go de mémoire et jusqu’à 4 To de stockage à l’intérieur du boîtier Project DIGITS.
Exécuter des modèles d’IA localement
Actuellement, de nombreuses personnes utilisent des modèles d’IA qui doivent s’exécuter sur des centres de données distants en raison de leurs exigences informatiques. Au fil du temps, il y a eu une tendance à alléger certains modèles d’IA afin qu’ils puissent fonctionner efficacement sur du matériel local appartenant à des particuliers. Le projet DIGITS peut fournir une partie de cette capacité à la maison.
Une seule unité du projet DIGITS peut exécuter des modèles d’IA avec jusqu’à 200 milliards de paramètres, tandis que deux unités liées peuvent gérer des modèles avec 405 milliards de paramètres. Dans les modèles d’IA, le nombre de paramètres correspond à peu près à la taille et à la complexité du réseau neuronal d’un modèle d’IA, un plus grand nombre de paramètres nécessitant plus de mémoire et de puissance de calcul pour s’exécuter. En outre, la taille des paramètres se rapproche de la capacité du modèle d’IA, bien que les modèles d’IA de différentes tailles fonctionnent différemment selon la manière dont ils ont été formés et architecturés.