Nvidia présente une plateforme IA capable de converser en temps réel: Page 2 of 3

28 août 2019 //Par A Delapalisse
Nvidia présente une IA capable de converser en temps réel
La société de technologies électroniques Nvidia (Santa Clara, Californie), spécialisée dans les unités de traitement graphique (GPU), a annoncé des avancées décisives dans la compréhension du langage permettant une intelligence artificielle conversationnelle en temps réel.
  • 1 472 GPU Nvidia V100, le temps d'apprentissage typique de BERT-Large a été réduit de plusieurs jours à tout juste 53 minutes. De plus, Nvidia a aussi formé BERT-Large sur un seul système Nvidia DGX-2 en 2,8 jours - démontrant ainsi l’évolutivité des GPU Nvidia pour l’IA conversationnelle.
  • Inférence la plus rapide: En utilisant les GPU Nvidia T4 exécutant Nvidia TensorRT, Nvidia a réalisé l'inférence sur le jeu de données BERT-Base SQuAD en seulement 2,2 millisecondes - bien en deçà du seuil de traitement de 10 ms pour de nombreuses applications en temps réel, et une nette amélioration par rapport à 40 millisecondes mesurées
  • Modèle le plus vaste: En se concentrant sur le besoin sans cesse croissant des développeurs pour des modèles plus volumineux, Nvidia Research a construit et formé le plus grand modèle de langage au monde basé sur Transformers, le module de technologie utilisé pour BERT et un nombre croissant d'autres modèles d'IA en langage naturel. Le modèle personnalisé de Nvidia, avec 8,3 milliards de paramètres, est 24 fois plus grand que BERT-Large.

La société a mis ses optimisations logicielles à la disposition des développeurs. Des optimisations continues pour accélérer la formation de BERT et de Transformer pour les GPU sur plusieurs frameworks sont disponibles gratuitement sur NGC, le hub de la société pour les logiciels accélérés. Le référentiel BERT GitHub de Nvidia offre le code permettant de reproduire les performances d'apprentissage sur nœud unique cité par la société, et il sera prochainement mis à jour avec les scripts nécessaires pour reproduire les chiffres de performances d'apprentissage à grande échelle cité plus haut.

Pour consulter le code de traitement du langage naturel (NLP) de l’équipe de Nvidia Research sur le projet Megatron, lancé par la société afin d’étudier les réseaux de plus d’un milliard basés sur Transformer, visitez le référentiel Megatron Language Model GitHub .

à lire également:

Cerebras met 1200 milliards de transistors sur une puce IA


Vous êtes certain ?

Si vous désactivez les cookies, vous ne pouvez plus naviguer sur le site.

Vous allez être rediriger vers Google.