Maison / Technologie / La balance Wafer est de retour

La balance Wafer est de retour

Suivre
( 0 Abonné(e)s )
X

Suivre

E-mail : *

Sean Lie, cofondateur et architecte en chef de la quincaillerie chez Cerebras, présente l’appareil ci-dessous:

<a rel = “image” class = “zoom galerie d’articles cboxElement” style = “couleur: # 25a7d7; décoration de texte: aucune; débordement: masqué; largeur maximale: 620px;” titre = ”

Systèmes Cerebras

Les spécifications de la puce Cerebras Systems.

“href =” https://images.idgesg.net/images/article/2019/08/cerebras-specs-100808711-orig.jpg “target =” _ blank “>cerebras system specs hot chips

Dans l’IA, la taille de la puce est extrêmement importante, explique Cerebras. Les grandes puces traitent les informations plus rapidement, produisant des réponses plus rapidement. La réduction du temps nécessaire à la compréhension, ou «temps de formation», permet aux chercheurs de tester plus d’idées, d’utiliser plus de données et de résoudre de nouveaux problèmes.

Google, Facebook, OpenAI, Tencent, Baidu et bien d’autres affirment que la limitation fondamentale de l’intelligence artificielle actuelle est qu’il faut trop de temps pour former des modèles. La réduction du temps de formation élimine un goulot d’étranglement majeur pour les progrès de l’industrie.

«Conçu à partir de rien pour l’IA, le Cerebras WSE contient des innovations fondamentales qui font évoluer les technologies de pointe en résolvant des défis techniques vieux de plusieurs décennies et limitant la taille des puces (connectivité réticule croisé, rendement, fourniture de puissance, etc.). »explique Andrew Feldman, co-fondateur et PDG de Cerebras Systems,« chaque décision architecturale a été prise pour optimiser les performances du travail sur l’IA. Le résultat est que le Cerebras WSE offre, en fonction de la charge de travail, des centaines, voire des milliers de fois les performances des solutions existantes pour une infime fraction de la consommation électrique et de l’espace. »

Ces gains de performance sont obtenus en accélérant tous les éléments de la formation en réseau de neurones. Un réseau de neurones est une boucle de rétroaction informatique à plusieurs niveaux. Plus les entrées se déplacent rapidement dans la boucle, plus la boucle apprend ou «s’entraîne» rapidement. La manière de déplacer les entrées plus rapidement dans la boucle consiste à accélérer le calcul et la communication au sein de la boucle.

En se concentrant exclusivement sur l’intelligence artificielle, le moteur Cerebras Wafer Scale Engine accélère les calculs et la communication, réduisant ainsi le temps de formation.

L’approche est simple et dépend de la taille du WSE: avec 56,7 fois plus de surface de silicium que la plus grande unité de traitement graphique, le WSE fournit plus de cœurs pour les calculs et une mémoire plus proche des cœurs pour que ces derniers puissent fonctionner efficacement.

Étant donné que cette vaste gamme de cœurs et de mémoire est sur une seule puce, toutes les communications sont conservées sur silicium. Cela signifie que la bande passante de communication à faible temps de latence du WSE est immense. Ainsi, des groupes de cœurs peuvent collaborer avec une efficacité maximale. La bande passante mémoire n’est plus un goulot d’étranglement.

Les 46 225 millimètres carrés de silicium de la CSEbras WSE hébergent 400 000 cœurs de calcul optimisés pour l’IA, sans cache, sans surcharge, et 18 gigaoctets de mémoire SRAM locale, distribuée et ultra-rapide, constituant le seul et unique niveau de la hiérarchie de la mémoire.

La bande passante mémoire est de 9 pétaoctets par seconde. Les cœurs sont reliés entre eux par un réseau de communication maillé, à la fine pointe de la technologie, maillé, entièrement matériel, qui fournit une bande passante globale de 100 pétabits par seconde.

Plus de cœurs, plus de mémoire locale et une structure à bande passante élevée et à faible temps de latence créent l’architecture optimale pour accélérer le travail de l’IA.

<a rel = “image” class = “zoom galerie d’articles cboxElement” style = “couleur: # 25a7d7; décoration de texte: aucune; débordement: masqué; largeur maximale: 620px;” titre = ”

Systèmes Cerebrus

Voici la puce Cerebras, illustrée par une balle de baseball pour plus d’échelle.

“href =” https://images.idgesg.net/images/article/2019/08/cerebras-baseball-100808713-orig.jpg “target =” _ blank “>systèmes de cérébras baseball

Le dispositif à l’échelle oblongue de la tranche rappelle la puce Trilogy de Gene Amdahl. Trilogy a collecté 290 millions de dollars mais n’a jamais réussi à faire fonctionner la technologie.

Le dispositif Cerebras est refroidi à l’eau via une plaque froide fixée au-dessus de celui-ci contenant plusieurs conduites d’eau.

Cerebras affirme que la puce a été vendue à des clients, les exécute déjà et peut réduire le temps nécessaire au traitement de données complexes de quelques mois à quelques minutes.

Parmi les investisseurs individuels dans Cerebras figurent: Sam Altman, fondateur OpenAI et YCombinator; Andy Bechtolsheim, fondateur de Sun Microsystems, Granite, Arista et DSSD; David «Dadi» Perlmutter, ancien vice-président exécutif, directeur des produits, GM Intel Architecture Group; Pradeep Sindhu, fondateur de Juniper Networks; Ilya Sutskever, fondateur et scientifique en chef OpenAI; Lip-Bu Tan, PDG de Cadence et Fred Weber, ancien directeur de la technologie AMD.

Parmi les sociétés de capital-risque qui investissent dans la société figurent: Coatue, Benchmark, Altimeter, Vy Capital, Foundation Capital et Eclipse.

Cerebras a levé 120 millions de dollars et compte 150 ingénieurs. La plus récente évaluation de la société s’élevait à 860 millions de dollars.

Source

A propos newstrotteur-fr

Découvrez également

Game Seer Venture Partners investira 11,1 millions de dollars dans des projets de jeu

Suivre ( 1 Abonné(e)s ) X Suivre E-mail : * Suivre Ne plus suivre Partenaires …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *