Inteligencia de datos generativa

Ampere, la última arquitectura de GPU de Nvidia finalmente está aquí: una nueva aceleración para la IA en todos los ámbitos

Fecha:

Video Nvidia ha levantado la tapa de una nueva línea de productos basada en su última arquitectura Ampere, revelando su última GPU A100, que promete ser 20 veces más poderosa que su predecesora y capaz de alimentar supercomputadoras de IA, así como un chip más pequeño para correr máquinas. aprendizaje de cargas de trabajo en dispositivos IoT.

El CEO Jensen Huang normalmente lanza nuevos regalos durante la Conferencia Anual de Tecnología GPU de la compañía, que tendrá lugar del 22 al 26 de marzo. Pero el evento, que se estima atrae a 10,000 personas en el Centro de Convenciones San Jose McEnery de Silicon Valley, se canceló cuando el nuevo coronavirus se extendió por todo el mundo. En cambio, Huang decidió pregrabar su discurso de apertura y pegarlo como un video de YouTube.

Los anuncios realizados este año son particularmente notables ya que Nvidia finalmente ha presentado la nueva arquitectura con nombre en código Ampere, superando a las generaciones anteriores como el conjunto de GPU más potente disponible hasta el momento. Aquí están los principales puntos destacados:

Presentamos el A100: el núcleo de la última versión de Ampere

El chip en el corazón de los esfuerzos de Nvidia para construir supercomputadoras y servidores de inteligencia artificial capaces de entrenar redes neuronales gigantes o procesar a través de cargas de trabajo de aprendizaje automático intensivo computacionalmente es el A100. Puede obtener la vista corporativa completa de esto aquí:

Youtube Video

Cada uno está equipado con 54 mil millones de transistores, lo que lo convierte en el chip de siete nanómetros más grande del mundo fabricado por TSMC. El A100 tiene 40 GB de memoria HBM2, es decir, 8 GB más que el anterior Tesla Volta V100, y tiene un ancho de banda de memoria de 1.6 TB por segundo y ofrece hasta 312 TFLOPS con FP de 32 bits al entrenar modelos de IA y 1,248 TOPS en INT8 para ejecutar inferencias. . En esos números, eso es un aumento de 20 veces en el rendimiento en comparación con el V100. También puede funcionar a 9.7 TFLOPS en FP de 64 bits a una potencia máxima de 400 Watts.

a100

A100 de Nvidia: haga clic para ampliar.

"La GPU NVIDIA A100 es un salto de rendimiento de IA 20X y un acelerador de aprendizaje automático de extremo a extremo, desde análisis de datos hasta capacitación e inferencia", dijo Huang. “Por primera vez, las cargas de trabajo de ampliación y escalabilidad pueden acelerarse en una plataforma. NVIDIA A100 aumentará simultáneamente el rendimiento y reducirá el costo de los centros de datos ".

Con "escalamiento", Huang se refiere a la utilización de varios chips A100 para construir servidores para computación de alto rendimiento. Por otro lado, "escalamiento horizontal" significa dividirlos para realizar cargas de trabajo independientes más pequeñas para la inferencia; más sobre esto más adelante.

Bien, volviendo al solo chip A100: el dado en el tablero mide 826 mm2y contiene 432 núcleos tensor TF32 capaces de manejar una gama de precisiones, incluidos FP32 y FP16 con un ancho de banda de interconexión de 600 GB por segundo. También hay un par de características nuevas y mejoradas, que incluyen algo llamado GPU de múltiples instancias (MIG) y escasez estructural.

MIG permite dividir un solo A100 en siete GPU independientes, cada una puede realizar diferentes trabajos de cálculo de varios tamaños para optimizar el uso. La escasez estructural ayuda a los investigadores a realizar operaciones matemáticas matriciales hasta dos veces más rápido cuando las matrices son escasas, lo que significa que la matriz contiene muchos ceros, lo que ocupa memoria y cálculo.

Los ocho grandes - DGX

¿Qué sucede cuando unes ocho A100? Bueno, obtienes el sistema DGX A100 para entrenar modelos en conjuntos de datos particularmente grandes o para grupos de supercomputación.

El DGX A100 está reforzado con una memoria HBM320 de 2 GB para ofrecer cinco petaflops de potencia con un ancho de banda de 12.4 TB por segundo. Los ocho A100 están conectados mediante seis interconexiones NVSwitch que admiten 4.8TB por segundo de ancho de banda bidireccional. También emplea Nvidia Mellanox ConnectX-6 HDR para que el sistema pueda conectarse a otras interfaces de red a una velocidad de 3.6 TB por segundo.

Cada DGX A100 puede funcionar como un solo sistema grande o dividirse en 56 instancias diferentes. Los servidores suelen contener grupos de diferentes tipos para almacenamiento, CPU, capacitación e inferencia. Algunos se utilizan en exceso y otros se mueren de hambre en diferentes momentos del día, dijo Paresh Kharya, director de marketing de productos de Computación Acelerada en NVIDIA, durante una conferencia de prensa el miércoles.

a12

Ocho se convierten en un clic para ampliar.

Nvidia afirmó que un solo bastidor de cinco DGX A100 podría reemplazar un centro de datos completo que se ha dividido para capacitación e inferencia de modelos de IA por "1/20 de la potencia, 1/25 del espacio y 1/10 del costo". "Es por eso que Jensen dice 'cuanto más compras, más ahorras'", dijo Kharya.

Su primer cliente es el Laboratorio Nacional Argonne, una instalación de investigación del Departamento de Energía de los Estados Unidos en Illinois, donde los investigadores están utilizando supercomputadoras para combatir el COVID-19.

"El poder de cómputo de los nuevos sistemas DGX A100 que llegan a Argonne ayudará a los investigadores a explorar tratamientos y vacunas y a estudiar la propagación del virus, lo que permitirá a los científicos realizar trabajos acelerados por IA en meses o días", dijo Rick Stevens. Director asociado de laboratorio de Argonne para Informática, Medio Ambiente y Ciencias de la Vida.

El DGX A100 está disponible ahora a un costo de $ 199,000.

Nvidia también tiene pedidos de otras instalaciones de investigación nacionales en otros países, incluida la Oficina de Inteligencia Artificial de los EAU en los Emiratos Árabes Unidos y VinAI Research en Vietnam.

Ahora esto es POD racing

Si está buscando aún más potencia computacional, existe la opción de DGX SuperPOD de Nvidia, compuesto por 140 sistemas DGX A100.

El gigantesco grupo puede alcanzar un rendimiento de 700 petaflops, lo que lo hace equivalente a una de las 20 mejores supercomputadoras. De hecho, Nvidia ha actualizado su propia supercomputadora interna conocida como SaturnV con cuatro DGX SuperPODS, o 1,120 A100, para agregar otros 2.8 exaFLOPS de potencia. SaturnV, compuesto por múltiples clústeres en varias ubicaciones, ahora puede operar a una capacidad total de 4.6 exaFLOPS. Kharya dijo que en la actualidad es la supercomputadora de inteligencia artificial más rápida del mundo.

a13

Supersize me - haga clic para agrandar.

EGX A100

Saltando del muy grande DGX SuperPOD, Nvidia ha vuelto al pequeño EGX A100 hecho para procesar los datos provenientes de sensores en dispositivos IoT, ya sea una cámara o un refrigerador inteligente.

El EGX A100 puede recibir hasta 200 GB por segundo de datos. La nueva arquitectura también permite que los datos de los sensores de IoT procesados ​​por el chip se cifren antes de enviarlos directamente a una GPU, lo que lo hace más seguro para aplicaciones en el sector sanitario o minorista.

"La fusión de IoT y AI ha lanzado la revolución de 'todo inteligente'", dijo Huang. “Las grandes industrias ahora pueden ofrecer productos y servicios inteligentes conectados como lo hace la industria telefónica con el teléfono inteligente. La plataforma de inteligencia artificial EGX Edge de NVIDIA transforma un servidor estándar en un mini centro de datos de IA seguro, nativo de la nube. Con nuestros marcos de aplicación de inteligencia artificial, las empresas pueden crear servicios de inteligencia artificial que van desde el comercio minorista inteligente hasta las fábricas de robots y los centros de llamadas automatizados ".

Un portavoz dijo El registro: “No estamos listos para revelar las especificaciones completas de estas GPU NVIDIA Ampere-class. Hemos anunciado la arquitectura con GPU NVIDIA Ampere y Mellanox ConnextX-6 Dx para que podamos comenzar a involucrar al ecosistema de software y usar la nueva característica de seguridad y borde de estas tarjetas. Compartiremos más especificaciones a medida que nos acerquemos al envío ".

Estará disponible para los clientes a finales de año.

Finalmente, el chip más nuevo y más pequeño que Nvidia tiene para ofrecer es el EGX Jetson Xavier NX del tamaño de una tarjeta de crédito para microservidores.

Cada módulo puede empacar hasta 21 TOPS cuando funciona a 15 vatios o 14 TOP a 10 vatios y también está hecho para analizar rápidamente los datos entrantes de los sensores IoT. Están disponibles para ordenar ahora. ®

patrocinado: Consejos prácticos para la migración de inquilino a inquilino de Office 365

Fuente: https://go.theregister.co.uk/feed/www.theregister.co.uk/2020/05/14/ampere_nvidias_gpu/

punto_img

Información más reciente

punto_img