Advanced Micro Devices (AMD) ra mắt nền tảng AI server “Helios” với thông số khủng.

Advanced Micro Devices (AMD) ra mắt nền tảng AI server “Helios” với thông số khủng.

Advanced Micro Devices (AMD) ra mắt nền tảng AI server “Helios” với thông số khủng.

Ngày đăng Bởi
Tổng Quan
• Helios là một thiết kế hệ thống tham chiếu cấu hình rack toàn diện (rack-scale platform) do AMD trình diễn lần đầu tại hội nghị Open Compute Project (OCP) Global Summit 2025 tại San Jose.
• Nó được thiết kế để phục vụ các trung tâm dữ liệu (data-centre) “AI-first” ở quy mô lớn (hyperscale, gigawatt-scale) — nơi nhu cầu xử lý, bộ nhớ, kết nối giữa các GPU/CPU rất cao.
• Một điểm nổi bật: Helios xây dựng dựa trên chuẩn mở “Open Rack Wide” (ORW) do Meta Platforms góp phần thiết kế và đưa vào OCP, nghĩa là rack thiết kế “double-wide” (rộng gấp đôi) để tối ưu cho điện, làm mát, mở rộng và bảo trì.
• AMD cho biết rằng Helios sẽ là nền tảng mở (open standard) để các OEM/ODM và hyperscaler nhanh chóng triển khai hệ thống AI với khả năng tùy biến, chứ không phải thiết kế riêng khép kín.

Thông số kỹ thuật nổi bật
• GPU đính kèm: sử dụng dòng AMD Instinct MI450 Series, mỗi GPU có tới 432 GB bộ nhớ HBM4 với băng thông khoảng 19,6 TB/s.
• Số lượng GPU mỗi rack: tối đa 72 GPU MI450 trong một rack Helios.
• Tổng bộ nhớ toàn rack: đạt khoảng 31 TB HBM4 khi trang bị đủ 72 GPU.
• Hiệu suất tính toán lý thuyết: khoảng 1,4 exaFLOPS FP8 và 2,9 exaFLOPS FP4 cho một rack đầy đủ GPU, phục vụ cho AI training và inference khối lượng lớn.
• Kết nối mạng nội bộ: hỗ trợ “scale-up” nội bộ rack tới 260 Tb/s, và “scale-out” giữa các rack hoặc pod khoảng 43 Tb/s trên nền Ethernet.
• Làm mát và thiết kế vật lý: sử dụng rack double-wide (rộng gấp đôi tiêu chuẩn 19-inch), có làm mát chất lỏng (liquid cooling quick-disconnect) để đạt mật độ và hiệu suất cao, đồng thời dễ bảo trì.
• Chuẩn mở và tương thích: hỗ trợ các chuẩn OCP DC-MHS, UALink™, Ultra Ethernet Consortium (UEC), UALoE… giúp hệ thống mở rộng tự do và không bị khóa vào nhà cung cấp duy nhất.
• Giai đoạn triển khai: hiện Helios đang ở mức thiết kế tham chiếu (reference design) cho OEM/ODM, và dự kiến triển khai sản xuất hàng loạt vào năm 2026.
Hệ sinh thái và đối tác
• Oracle Corporation là một trong những khách hàng lớn công bố sử dụng Helios: triển khai khoảng 50,000 GPU MI450 bắt đầu từ Q3 2026 trong hạ tầng đám mây của họ.
• Việc AMD hợp tác với Oracle, cùng với việc sử dụng chuẩn mở và thiết kế rack như Helios, cho thấy AMD đặt mục tiêu cạnh tranh mạnh hơn với NVIDIA Corporation trong mảng hạ tầng AI.

 
Ý nghĩa & nhận định
• Cạnh tranh hạ tầng AI: Với Helios, AMD không chỉ bán GPU/chip mà tiến tới cung cấp giải pháp toàn bộ rack – một bước lớn trong chiến lược “từ chip tới hệ thống tới rack” để giải quyết nhu cầu AI lớn.
• Chuẩn mở (open infrastructure): Việc dùng chuẩn ORW và các chuẩn mở giúp giảm rủi ro bị khóa vào một nhà cung cấp, giúp các tổ chức dữ liệu (hyperscalers) linh hoạt hơn.
• Hiệu suất & khả năng mở rộng: Những thông số như 31 TB HBM4, 1.4 exaFLOPS cho training lớn cho thấy AMD chuẩn bị cho thế hệ mô hình AI “tỷ tham số” (trillion-parameter) và workloads rất nặng.
• Triển khai thực tế vẫn cần thời gian: Dù công bố mạnh mẽ, Helios mới là thiết kế tham chiếu và thời điểm thương mại hàng loạt mới là 2026 — nên còn cần quan sát thêm cách thị trường đón nhận và khả năng sản xuất.
• Cơ hội & rủi ro: Cơ hội là AMD có thể thu được phần lớn thị trường hạ tầng AI nếu thực hiện tốt; rủi ro là ngành hạ tầng AI có tốc độ thay đổi rất nhanh, và chuẩn mở dù ưu điểm nhưng phải được triển khai rộng.
 
Advanced Micro Devices (AMD) ra mắt nền tảng AI server “Helios” với thông số khủng.

Advanced Micro Devices (AMD) ra mắt nền tảng AI server “Helios” với thông số khủng.

Ngày đăng Bởi
Tổng Quan
• Helios là một thiết kế hệ thống tham chiếu cấu hình rack toàn diện (rack-scale platform) do AMD trình diễn lần đầu tại hội nghị Open Compute Project (OCP) Global Summit 2025 tại San Jose.
• Nó được thiết kế để phục vụ các trung tâm dữ liệu (data-centre) “AI-first” ở quy mô lớn (hyperscale, gigawatt-scale) — nơi nhu cầu xử lý, bộ nhớ, kết nối giữa các GPU/CPU rất cao.
• Một điểm nổi bật: Helios xây dựng dựa trên chuẩn mở “Open Rack Wide” (ORW) do Meta Platforms góp phần thiết kế và đưa vào OCP, nghĩa là rack thiết kế “double-wide” (rộng gấp đôi) để tối ưu cho điện, làm mát, mở rộng và bảo trì.
• AMD cho biết rằng Helios sẽ là nền tảng mở (open standard) để các OEM/ODM và hyperscaler nhanh chóng triển khai hệ thống AI với khả năng tùy biến, chứ không phải thiết kế riêng khép kín.

Thông số kỹ thuật nổi bật
• GPU đính kèm: sử dụng dòng AMD Instinct MI450 Series, mỗi GPU có tới 432 GB bộ nhớ HBM4 với băng thông khoảng 19,6 TB/s.
• Số lượng GPU mỗi rack: tối đa 72 GPU MI450 trong một rack Helios.
• Tổng bộ nhớ toàn rack: đạt khoảng 31 TB HBM4 khi trang bị đủ 72 GPU.
• Hiệu suất tính toán lý thuyết: khoảng 1,4 exaFLOPS FP8 và 2,9 exaFLOPS FP4 cho một rack đầy đủ GPU, phục vụ cho AI training và inference khối lượng lớn.
• Kết nối mạng nội bộ: hỗ trợ “scale-up” nội bộ rack tới 260 Tb/s, và “scale-out” giữa các rack hoặc pod khoảng 43 Tb/s trên nền Ethernet.
• Làm mát và thiết kế vật lý: sử dụng rack double-wide (rộng gấp đôi tiêu chuẩn 19-inch), có làm mát chất lỏng (liquid cooling quick-disconnect) để đạt mật độ và hiệu suất cao, đồng thời dễ bảo trì.
• Chuẩn mở và tương thích: hỗ trợ các chuẩn OCP DC-MHS, UALink™, Ultra Ethernet Consortium (UEC), UALoE… giúp hệ thống mở rộng tự do và không bị khóa vào nhà cung cấp duy nhất.
• Giai đoạn triển khai: hiện Helios đang ở mức thiết kế tham chiếu (reference design) cho OEM/ODM, và dự kiến triển khai sản xuất hàng loạt vào năm 2026.
Hệ sinh thái và đối tác
• Oracle Corporation là một trong những khách hàng lớn công bố sử dụng Helios: triển khai khoảng 50,000 GPU MI450 bắt đầu từ Q3 2026 trong hạ tầng đám mây của họ.
• Việc AMD hợp tác với Oracle, cùng với việc sử dụng chuẩn mở và thiết kế rack như Helios, cho thấy AMD đặt mục tiêu cạnh tranh mạnh hơn với NVIDIA Corporation trong mảng hạ tầng AI.

 
Ý nghĩa & nhận định
• Cạnh tranh hạ tầng AI: Với Helios, AMD không chỉ bán GPU/chip mà tiến tới cung cấp giải pháp toàn bộ rack – một bước lớn trong chiến lược “từ chip tới hệ thống tới rack” để giải quyết nhu cầu AI lớn.
• Chuẩn mở (open infrastructure): Việc dùng chuẩn ORW và các chuẩn mở giúp giảm rủi ro bị khóa vào một nhà cung cấp, giúp các tổ chức dữ liệu (hyperscalers) linh hoạt hơn.
• Hiệu suất & khả năng mở rộng: Những thông số như 31 TB HBM4, 1.4 exaFLOPS cho training lớn cho thấy AMD chuẩn bị cho thế hệ mô hình AI “tỷ tham số” (trillion-parameter) và workloads rất nặng.
• Triển khai thực tế vẫn cần thời gian: Dù công bố mạnh mẽ, Helios mới là thiết kế tham chiếu và thời điểm thương mại hàng loạt mới là 2026 — nên còn cần quan sát thêm cách thị trường đón nhận và khả năng sản xuất.
• Cơ hội & rủi ro: Cơ hội là AMD có thể thu được phần lớn thị trường hạ tầng AI nếu thực hiện tốt; rủi ro là ngành hạ tầng AI có tốc độ thay đổi rất nhanh, và chuẩn mở dù ưu điểm nhưng phải được triển khai rộng.
 
Trước ASUS Ascent GX10 – Khi sức mạnh AI nằm gọn trong lòng bàn tay
Tiếp theo OpenAI hợp tác với Broadcom để thiết kế chip AI riêng
Bình luận
Copyright © 2024 - Fastest, All Rights Reserved.