Ngày đăng: 03/06/2020 16:15
NVIDIA DGX™ A100 là hệ thống phổ quát cho tất cả các AI workload, cung cấp mật độ tính toán, hiệu suất và tính linh hoạt chưa từng có trong hệ thống AI 5 petaFLOPS đầu tiên trên thế giới. NVIDIA DGX A100 có bộ tăng tốc tiên tiến nhất thế giới, đó là GPU NVIDIA A100 Tensor Core dựa trên kiến trúc Ampere, cho phép các doanh nghiệp hợp nhất Training, Inference và Analytics thành một cơ sở hạ tầng AI thống nhất, dễ triển khai, bao gồm quyền truy cập trực tiếp vào cộng đồng các chuyên gia AI của NVIDIA.
DGX A100 mang lại những ưu điểm trên 04 building-block thiết yếu của một trung tâm dữ liệu AI.
NVIDIA DGX A100 là hệ thống phổ quát cho tất cả các cơ sở hạ tầng AI, từ phân tích (analytics), đào tạo (training) đến suy luận (inference). Nó đóng gói mật độ cao các compute với hiệu suất xử lý AI lên đến 5 petaFLOPS trong một khung máy 6U, thay thế một tháp cơ sở hạ tầng chỉ bằng một nền tảng cho mọi AI workload.
NVIDIA DGXperts là một nhóm toàn cầu gồm hơn 14.000 chuyên gia và lập trình viên thông thạo AI, những người đã có nhiều kinh nghiệm trong thập kỷ qua để giúp bạn tối đa hóa giá trị của khoản đầu tư cho hệ thống DGX của mình.
DGX A100 là hệ thống AI đầu tiên trên thế giới được xây dựng trên GPU NVIDIA A100 Tensor Core. Tích hợp 8 GPU A100, hệ thống cung cấp khả năng tăng tốc chưa từng có và được tối ưu hóa hoàn toàn cho phần mềm NVIDIA CUDA-X™ và các lớp giải pháp end-to-end cho trung tâm dữ liệu NVIDIA.
Mở rộng trung tâm dữ liệu AI khi dữ liệu và bài toán bùng nổ là một yêu cầu không tránh khỏi. NVIDIA DGX A100 tích hợp Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet network adapters với 450GB/s băng thông hai chiều cao nhất. Đây là một trong nhiều tính năng giúp DGX A100 trở thành khối xây dựng nền tảng cho các cụm AI lớn như NVIDIA DGX SuperPOD – môt bản thiết kế Enterpise cho cơ sở hạ tầng AI có thể mở rộng.
PageRank – Phân tích nhanh hơn nghĩa là nắm bắt sâu sắc hơn để đẩy mạnh phát triển AI.
NLP: BERT-Large – Đào tạo nhanh hơn cho phép triển khai các mô hình AI tiên tiến nhất.
BERT Pre-Training Throughput sử dụng PyTorch bao gồm (2/3) Giai đoạn 1 và (1/3) Giai đoạn 2. Giai đoạn 1 Seq Len = 128, Giai đoạn 2 Seq Len = 512. V100: DGX-1 với 8x V100 sử dụng độ chính xác FP32. DGX A100: DGX A100 với 8x A100 sử dụng độ chính xác TF32.
Peak Compute – Suy luận nhanh hơn làm tăng ROI thông qua việc sử dụng hệ thống tối đa.
Máy chủ CPU: 2x Intel Platinum 8280 sử dụng INT8. DGX A100: DGX A100 với 8x A100 sử dụng INT8 với Structural Sparsity.
KHÁM PHÁ CÁC THÀNH PHẦN MẠNH MẼ CỦA DGX A100
GPU NVIDIA A100 Tensor Core mang đến khả năng tăng tốc chưa từng có cho AI, phân tích dữ liệu và tính toán hiệu năng cao (HPC) để giải quyết các thách thức điện toán khó khăn nhất của thế giới. Với NVIDIA Tensor Cores thế hệ thứ ba mang lại hiệu suất vượt trội, GPU A100 có thể mở rộng hiệu quả lên đến hàng nghìn hoặc, với Multi-Instance GPU, được phân chia thành 7x GPU nhỏ hơn, chuyên dụng để tăng tốc cho các workload ở mọi kích thước.
Với MIG, tám GPU A100 trong DGX A100 có thể được cấu hình thành tối đa 56 phiên bản GPU, mỗi GPU được cách ly hoàn toàn với bộ nhớ băng thông cao, bộ nhớ cache và lõi tính toán. Điều này cho phép quản trị viên GPU kích thước phù hợp với chất lượng dịch vụ (QoS) được đảm bảo cho nhiều khối lượng công việc.
Thế hệ thứ ba của NVIDIA ® NVLink ™ trong DGX A100 tăng gấp đôi băng thông trực tiếp từ GPU đến GPU lên 600 gigabyte mỗi giây (GB / s), cao hơn gần 10 lần so với PCIe Gen4. DGX A100 cũng có NVIDIA NVSwitch ™ thế hệ tiếp theo, nhanh gấp 2 lần so với thế hệ trước.
DGX A100 có bộ điều hợp Mellanox ConnectX-6 VPI HDR InfiniBand / Ethernet mới nhất, mỗi bộ chạy với tốc độ 200 gigabit mỗi giây (Gb / s) để tạo ra một loại vải tốc độ cao cho khối lượng công việc AI quy mô lớn.
DGX A100 tích hợp ngăn xếp phần mềm DGX đã được thử nghiệm và tối ưu hóa, bao gồm hệ điều hành cơ sở được điều chỉnh bằng AI, tất cả phần mềm hệ thống cần thiết và các ứng dụng được tăng tốc GPU, các mô hình được đào tạo trước và hơn thế nữa từ NGC ™ .
DGX A100 mang đến tư thế bảo mật mạnh mẽ nhất cho việc triển khai AI, với cách tiếp cận nhiều lớp trải dài trên bộ điều khiển quản lý ván chân tường (BMC), bo mạch CPU, bo mạch GPU, ổ đĩa tự mã hóa và khởi động an toàn.
DGX A100 là một hệ thống cực kỳ mạnh mẽ có nhiều dấu ấn của Nvidia ở bên ngoài, và bên trong còn có AMD. Một cặp bộ xử lý AMD Epyc 7742 (tên mã Rome) là cốt lõi của sự sáng tạo ở tầm giá 199.000 USD của Nvidia.
DGX A100 sử dụng tới tám GPU trung tâm dữ liệu A100 được hỗ trợ bởi Ampere, cung cấp tới 320GB tổng bộ nhớ GPU và cung cấp khoảng 5 petaflop hiệu năng AI. A100 có thể thực hiện hầu hết các công việc nặng nhọc, phân khúc điện toán này vẫn cần một nhà dẫn đầu.
A100 tận dụng PCIe 4.0, nhưng Intel hiện không có bộ xử lý nào hỗ trợ giao diện này. AMD, mặt khác, đã công khai chấp nhận tiêu chuẩn PCIe 4.0 trên phần lớn các CPU hiện đại của nó. Nvidia cuối cùng đã tìm thấy sự thoải mái trong vòng tay của AMD, cụ thể hơn là các sản phẩm EPYC thế hệ thứ hai của AMD.
DGX A100 có hai bộ xử lý 7nm EPYC 7742. Mỗi bộ xử lý Zen 2 đi kèm với 64 lõi và 128 luồng chạy với xung nhịp cơ bản 2,25 GHz và xung nhịp tăng 3,4 GHz. Bộ đôi Epyc 7742 chiếm 128 lõi và 256 luồng trên DGX A100.
Epyc 7742 không chỉ hào phóng với lõi; Nó cũng khá nặng về bộ đệm , cung cấp tới 256 MB bộ đệm L3. Quan trọng hơn, phần 64 lõi đặt 128 làn PCIe 4.0 tốc độ cao theo ý của Nvidia.
Một hệ thống DGX A100 thông thường cũng có bộ nhớ 1TB (có thể nâng cấp lên 2TB), hai ổ SSD NVMe M.2 1.92TB trong một mảng RAID 1 cho hệ điều hành (Ubuntu Linux) và lên đến bốn 3.84TB PCIe 4.0 NVMe U.2 ổ đĩa trong một mảng RAID 0 cho kho thứ cấp. Nvidia cũng cung cấp tùy chọn thêm bốn ổ SSD bổ sung để tăng dung lượng RAID 0 từ 15TB lên đến 30TB.
DGX A100 được thiết kế với công nghệ mạng tiên tiến nhất. Nvidia gần đây đã mua lại Mellanox Technologies trong một thỏa thuận trị giá 6,9 tỷ USD và nó đã được đền đáp. DGX A100 gói tám bộ điều hợp Mellanox ConnectX-6 VPI HDR InfiniBand một cổng để phân cụm và một bộ điều hợp Ethernet ConnectX-6 VPI hai cổng để lưu trữ và sử dụng mạng. Các bộ điều hợp đã nói ở trên có khả năng cung cấp thông lượng lên tới 200 Gbps.