Theo báo cáo mới, thị trường “Server Power Supply for Data Center” dự kiến đạt 5,8 tỷ USD đến năm 2031, với tốc độ tăng trưởng khoảng 7,4%/năm từ 2025-2031.
Khu vực Châu Á-Thái Bình Dương được cho là có tiềm năng tăng trưởng mạnh nhất, vì sự phát triển hạ tầng và trung tâm dữ liệu ở các nước như Trung Quốc, Ấn Độ, Nhật Bản.
Nhận xét: Khi server và data-center mở rộng để phục vụ AI, yếu tố như nguồn điện, khả năng cung ứng “power supply” trở thành lĩnh vực hot mà ít người để ý.
Cisco đã giới thiệu chip P200, một thành phần mạng mới được thiết kế để kết nối các trung tâm dữ liệu AI ở khoảng cách lớn.
Chip này thay thế ~92 chip truyền thống bằng một đơn vị duy nhất, giảm tiêu thụ điện năng khoảng 65%.
Ý nghĩa: Khi các nền tảng AI ngày càng lớn (ví dụ các mô hình huấn luyện phân tán), việc liên kết giữa nhiều site (data centre) trở nên rất quan trọng — Cisco đang nhắm vào “backbone” hạ tầng này.
Foxconn đang hợp tác với NVIDIA để phát triển dòng máy chủ “Vera Rubin NVL144 MGX” hướng tới thị trường năm 2026.
Việc này cho thấy rõ xu hướng: các hãng lớn đang chuẩn bị hạ tầng máy chủ dành riêng cho AI để đón “siêu chu kỳ” hạ tầng tính toán.
Tầm quan trọng: nếu thành công, sẽ là bước nâng cấp lớn về máy chủ chuyên dụng cho training/inference AI — ảnh hưởng tới chi phí, hiệu năng và khả năng mở rộng của hệ thống AI.
ASUS vừa chính thức giới thiệu Ascent GX10, mẫu mini PC hiệu năng cao dành riêng cho trí tuệ nhân tạo (AI), đánh dấu bước tiến mới trong chiến lược đưa sức mạnh AI cấp trung tâm dữ liệu xuống tầm người dùng cá nhân và doanh nghiệp nhỏ. Dù sở hữu kích thước chỉ 150 × 150 × 51 mm và trọng lượng chưa đến 1,5 kg, chiếc máy này có thể đạt hiệu năng lên tới 1 petaFLOP (1.000 TOPS) – tương đương với các máy chủ AI chuyên dụng.
AMD tại hội nghị OCP Global Summit 2025 vừa công bố nền tảng “Helios” hướng tới các data-center AI thực thụ: hỗ trợ đến 72 GPU MI450 mỗi rack, tổng bộ nhớ lên tới 31 TB. Họ cho biết Helios có bộ nhớ lớn hơn khoảng 50% so với nền tảng của NVIDIA (Vera Rubin) và được thiết kế để dễ dàng bảo trì, mở rộng ở dạng rack đậm chất “AI first”. Ý nghĩa: Máy chủ – rack – data-center dành riêng cho AI đang được thiết kế khác biệt so với máy chủ “general purpose” truyền thống. Khi bạn nghĩ tới việc triển khai AI lớn, sẽ cần những giải pháp như vậy.
OpenAI vừa công bố hợp tác với Broadcom nhằm phát triển chip AI tùy chỉnh, hướng đến việc kiểm soát tốt hơn hạ tầng nội bộ và tối ưu hóa chi phí. Dự kiến chip mới sẽ được triển khai vào cuối năm sau.
Mục tiêu lớn nhất của OpenAI là đưa ChatGPT vượt ra khỏi vai trò chatbot cơ bản để trở thành cổng kết nối chính của người dùng với internet, tương tự vai trò của iOS hay Android.
AMD vừa ký một hợp đồng 5 năm với OpenAI để cung cấp 6 gigawatt năng lực xử lý cho các trung tâm dữ liệu AI, bắt đầu bằng việc triển khai GPU Instinct MI450 vào nửa sau năm 2026. Sự hợp tác này được xem là một bước chiến lược để cạnh tranh với vị thế thống trị của Nvidia trong lĩnh vực chip AI.
FuriosaAI vừa giới thiệu dòng máy chủ gọi là RNGD Server với sức mạnh tính toán ~4 petaflop và bộ nhớ HBM3 384 GB, nhưng chỉ tiêu thụ ~3 kW điện. Trong khi đó, một máy chủ DGX H100 với hiệu năng tương đương có thể tiêu thụ >10 kW. Nhờ vậy, mỗi rack tiêu chuẩn (hạn chế ~15 kW) có thể chứa 5 máy chủ RNGD, so với chỉ 1 máy chủ DGX H100.