Cerebras met 1200 milliards de transistors sur une puce IA

22 août 2019 //Par A Delapalisse
Cerebras met 1200 milliards de transistors sur une puce IA
La startup Cerebras Systems spécialiste de l'accélération du calcul AI (Los Altos, Californie) a dévoilé ce qu'il dit être la plus grande puce jamais construite, comprenant plus de 1 200 milliards de transistors.

Mesurant 46 225 mm2 et optimisé pour l’intelligence artificielle, le moteur Cerebras Wafer Scale Engine (WSE) est 56,7 fois plus grand que la plus grande unité de traitement graphique qui mesure 815 mm2, et il contient 1200 milliards de transistors. La puce WSE, ajoute la société, offre également 3 000 fois plus de mémoire haute vitesse sur puce et 10 000 fois plus de bande passante mémoire.

"Conçu dès le départ pour l'IA, le Cerebras WSE contient des innovations fondamentales qui font évoluer les technologies de pointe en résolvant des défis techniques vieux de plusieurs décennies qui limitaient la taille des puces - telles que la connectivité interne, le rendement en fabrication, la fourniture de puissance, et la mise en boîtier ", explique Andrew Feldman, fondateur et PDG de Cerebras Systems. "Toutes les décisions architecturales ont été prises pour optimiser les performances du travail en intelligence artificielle. Le résultat est que le Cerebras WSE offre, en fonction de la charge de travail, des centaines, voire des milliers de fois les performances des solutions existantes pour une fraction infime de la consommation et de l'encombrement."

En matière d’intelligence artificielle, la taille des puces revêt une importance capitale, car les puces plus larges sont en mesure de traiter les informations plus rapidement et donc de fournir des réponses plus rapidement. La réduction du temps nécessaire à la compréhension, ou "temps d'aprentissage" - un obstacle majeur aux progrès de l’ensemble du secteur - permet aux chercheurs de tester plus d’idées, d’utiliser plus de données et de résoudre de nouveaux problèmes.

Les gains de performances de la puce sont obtenus en accélérant tous les éléments de l'aprentissage des réseaux de neurones. Un réseau de neurones est une boucle de rétroaction informatique à plusieurs niveaux. Plus les entrées sont rapides dans la boucle, plus la boucle apprend ou "s'entraîne" rapidement. La solution pour déplacer les entrées dans la boucle plus rapidement consiste à accélérer le


Vous êtes certain ?

Si vous désactivez les cookies, vous ne pouvez plus naviguer sur le site.

Vous allez être rediriger vers Google.