La Primera GPU Tensor Core
Encontrar los conocimientos ocultos en océanos de datos puede transformar industrias enteras, desde la terapia personalizada contra el cáncer hasta ayudar a los asistentes personales virtuales a conversar de forma natural y predecir el próximo gran huracán.
NVIDIA® V100 Tensor Core es la GPU de data center más avanzada jamás construida para acelerar la inteligencia artificial, la computación de alto rendimiento (HPC), la ciencia de datos y los gráficos. Está impulsado por la arquitectura NVIDIA Volta, viene en configuraciones de 16 y 32 GB y ofrece el rendimiento de hasta 32 CPU en una sola GPU. Los científicos, investigadores e ingenieros de datos ahora pueden dedicar menos tiempo a optimizar el uso de la memoria y más tiempo a diseñar el próximo avance de la IA.
Ejecute cargas de trabajo de IA y HPC en un entorno virtual para una mejor seguridad y capacidad de gestión con el software NVIDIA Virtual Compute Server (vCS)
Entrenamiento ResNet-50, conjunto de datos: ImageNet2012, BS = 256 | Comparación de NVIDIA V100: servidor NVIDIA DGX-2™, 1 V100 SXM3-32GB, MXNet 1.5.1, contenedor = 19.11-py3, precisión mixta, rendimiento: 1,525 imágenes/seg | Comparación de Intel: Supermicro SYS-1029GQ-TRT, 1 socket Intel Gold 6240@2GHz/3.9Hz Turbo, Tensorflow 0.18, FP32 (solo precisión disponible), rendimiento: 48 imágenes/seg
Desde reconocer el habla hasta capacitar a asistentes personales virtuales y enseñar a conducir automóviles autónomos, los científicos de datos están asumiendo desafíos cada vez más complejos con la inteligencia artificial. Resolver este tipo de problemas requiere entrenar modelos de deep learning que están creciendo exponencialmente en complejidad, en una cantidad de tiempo práctica.
Con 640 Tensor Cores, V100 es la primera GPU del mundo que rompe la barrera de los 100 teraFLOPS (TFLOPS) del rendimiento del aprendizaje profundo. La próxima generación de NVIDIA NVLink™ conecta varias GPU V100 de hasta 300 GB / s para crear los servidores informáticos más potentes del mundo. Los modelos de IA que consumirían semanas de recursos informáticos en sistemas anteriores ahora se pueden entrenar en unos pocos días. Con esta drástica reducción en el tiempo de entrenamiento, ahora se podrá resolver un nuevo mundo de problemas con la IA.
Inferencia de ajuste fino de la base BERT, conjunto de datos: SQuADv1.1, BS = 1, longitud de secuencia = 128 | Comparación de NVIDIA V100: Supermicro SYS-4029GP-TRT, 1x V100-PCIE-16GB, contenedor de prelanzamiento, precisión mixta, NVIDIA TensorRT™ 6.0, rendimiento: 557 sentencias/seg | Comparación de Intel: 1 socket Intel Gold [email protected]/3.9Hz Turbo, FP32 (solo precisión disponible), OpenVINO MKL-DNN v0.18, rendimiento: 23.5 oraciones/seg
Para conectarnos con la información, los servicios y los productos más relevantes, las empresas de hiperescala han comenzado a aprovechar la inteligencia artificial. Sin embargo, mantenerse al día con la demanda de los usuarios es un desafío abrumador. Por ejemplo, la empresa de hiperescala más grande del mundo estimó recientemente que necesitarían duplicar la capacidad de su data center si cada usuario dedicara solo tres minutos al día a utilizar su servicio de reconocimiento de voz.
V100 está diseñada para proporcionar el máximo rendimiento en racks de servidores de hiperescala existentes. Con IA en su núcleo, la GPU V100 ofrece un rendimiento de inferencia 47 veces mayor que un servidor de CPU. Este gran salto en rendimiento y eficiencia hará que la ampliación de los servicios de inteligencia artificial sea práctica.
Aplicación (conjunto de datos): MILC (medio APEX) y Chroma (szscl21_24_128) | Servidor de CPU: Intel Xeon Platinum 8280 de doble zócalo (lago en cascada)
HPC es un pilar fundamental de la ciencia moderna. Desde predecir el clima hasta descubrir fármacos y encontrar nuevas fuentes de energía, los investigadores utilizan grandes sistemas de computación para simular y predecir nuestro mundo. La IA amplía la HPC tradicional al permitir a los investigadores analizar grandes volúmenes de datos para obtener información rápida donde la simulación por sí sola no puede predecir completamente el mundo real.
V100 está diseñada para la convergencia de IA y HPC. Ofrece una plataforma para que los sistemas HPC se destaquen tanto en la ciencia computacional para la simulación científica como en la ciencia de datos para encontrar conocimientos en los datos. Al emparejar los NVIDIA CUDA® Cores y los Tensor Cores dentro de una arquitectura unificada, un solo servidor con GPU V100 puede reemplazar cientos de servidores de CPU básicos para cargas de trabajo tradicionales de HPC y IA. Cada investigador e ingeniero ahora puede permitirse una supercomputadora de inteligencia artificial para abordar su trabajo más desafiante.
Máximo rendimiento para el deep learning.
Máxima versatilidad para todas las cargas de trabajo.
Precisión Doble 7.8 teraFLOPS
Precisión Simple 15.7 teraFLOPS
Deep Learning 125 teraFLOPS
Precisión Doble 7 teraFLOPS
Precisión Simple 14 teraFLOPS
Deep Learning 112 teraFLOPS
Precisión Doble 8.2 teraFLOPS
Precisión Simple 16.4 teraFLOPS
Deep Learning 130 teraFLOPS
NVLink 300 GB/s
PCIe 32 GB/s
CAPACIDAD 32/16 GB HBM2
ANCHO DE BANDA 900 GB/s
CAPACIDAD 32 GB HBM2
ANCHO DE BANDA 1134 GB/s
300 WATTS
250 WATTS
Los Aceleradores de GPU Más Rápidos del Mundo para HPC y Deep Learning.
Encuentre un Socio de Computación Acelerada de NVIDIA a través de nuestra Red de Socios de NVIDIA (NPN).