Theo báo cáo mới, thị trường “Server Power Supply for Data Center” dự kiến đạt 5,8 tỷ USD đến năm 2031, với tốc độ tăng trưởng khoảng 7,4%/năm từ 2025-2031.
Khu vực Châu Á-Thái Bình Dương được cho là có tiềm năng tăng trưởng mạnh nhất, vì sự phát triển hạ tầng và trung tâm dữ liệu ở các nước như Trung Quốc, Ấn Độ, Nhật Bản.
Nhận xét: Khi server và data-center mở rộng để phục vụ AI, yếu tố như nguồn điện, khả năng cung ứng “power supply” trở thành lĩnh vực hot mà ít người để ý.
Cisco đã giới thiệu chip P200, một thành phần mạng mới được thiết kế để kết nối các trung tâm dữ liệu AI ở khoảng cách lớn.
Chip này thay thế ~92 chip truyền thống bằng một đơn vị duy nhất, giảm tiêu thụ điện năng khoảng 65%.
Ý nghĩa: Khi các nền tảng AI ngày càng lớn (ví dụ các mô hình huấn luyện phân tán), việc liên kết giữa nhiều site (data centre) trở nên rất quan trọng — Cisco đang nhắm vào “backbone” hạ tầng này.
Foxconn đang hợp tác với NVIDIA để phát triển dòng máy chủ “Vera Rubin NVL144 MGX” hướng tới thị trường năm 2026.
Việc này cho thấy rõ xu hướng: các hãng lớn đang chuẩn bị hạ tầng máy chủ dành riêng cho AI để đón “siêu chu kỳ” hạ tầng tính toán.
Tầm quan trọng: nếu thành công, sẽ là bước nâng cấp lớn về máy chủ chuyên dụng cho training/inference AI — ảnh hưởng tới chi phí, hiệu năng và khả năng mở rộng của hệ thống AI.
ASUS vừa chính thức giới thiệu Ascent GX10, mẫu mini PC hiệu năng cao dành riêng cho trí tuệ nhân tạo (AI), đánh dấu bước tiến mới trong chiến lược đưa sức mạnh AI cấp trung tâm dữ liệu xuống tầm người dùng cá nhân và doanh nghiệp nhỏ. Dù sở hữu kích thước chỉ 150 × 150 × 51 mm và trọng lượng chưa đến 1,5 kg, chiếc máy này có thể đạt hiệu năng lên tới 1 petaFLOP (1.000 TOPS) – tương đương với các máy chủ AI chuyên dụng.
AMD tại hội nghị OCP Global Summit 2025 vừa công bố nền tảng “Helios” hướng tới các data-center AI thực thụ: hỗ trợ đến 72 GPU MI450 mỗi rack, tổng bộ nhớ lên tới 31 TB. Họ cho biết Helios có bộ nhớ lớn hơn khoảng 50% so với nền tảng của NVIDIA (Vera Rubin) và được thiết kế để dễ dàng bảo trì, mở rộng ở dạng rack đậm chất “AI first”. Ý nghĩa: Máy chủ – rack – data-center dành riêng cho AI đang được thiết kế khác biệt so với máy chủ “general purpose” truyền thống. Khi bạn nghĩ tới việc triển khai AI lớn, sẽ cần những giải pháp như vậy.
OpenAI vừa công bố hợp tác với Broadcom nhằm phát triển chip AI tùy chỉnh, hướng đến việc kiểm soát tốt hơn hạ tầng nội bộ và tối ưu hóa chi phí. Dự kiến chip mới sẽ được triển khai vào cuối năm sau.