Do nhu cầu tăng mạnh từ các công việc liên quan AI / máy chủ — nhất là các trung tâm dữ liệu / hyperscaler — giá DRAM dành cho server đã tăng tới ~50%.
Ví dụ: Khách hàng tại Mỹ và Trung Quốc hiện chỉ nhận được khoảng 70% đơn hàng DRAM so với nhu cầu đặt trước.
Ý nghĩa: Đây là dấu hiệu cho thấy hạ tầng vật lý (như bộ nhớ) đang bị “vỡ” do bùng nổ AI — chi phí hạ tầng có thể tăng, các dự án server sẽ phải tính toán kỹ hơn về chi phí và thời gian.
Theo báo cáo mới, thị trường “Server Power Supply for Data Center” dự kiến đạt 5,8 tỷ USD đến năm 2031, với tốc độ tăng trưởng khoảng 7,4%/năm từ 2025-2031.
Khu vực Châu Á-Thái Bình Dương được cho là có tiềm năng tăng trưởng mạnh nhất, vì sự phát triển hạ tầng và trung tâm dữ liệu ở các nước như Trung Quốc, Ấn Độ, Nhật Bản.
Nhận xét: Khi server và data-center mở rộng để phục vụ AI, yếu tố như nguồn điện, khả năng cung ứng “power supply” trở thành lĩnh vực hot mà ít người để ý.
Cisco đã giới thiệu chip P200, một thành phần mạng mới được thiết kế để kết nối các trung tâm dữ liệu AI ở khoảng cách lớn.
Chip này thay thế ~92 chip truyền thống bằng một đơn vị duy nhất, giảm tiêu thụ điện năng khoảng 65%.
Ý nghĩa: Khi các nền tảng AI ngày càng lớn (ví dụ các mô hình huấn luyện phân tán), việc liên kết giữa nhiều site (data centre) trở nên rất quan trọng — Cisco đang nhắm vào “backbone” hạ tầng này.
Foxconn đang hợp tác với NVIDIA để phát triển dòng máy chủ “Vera Rubin NVL144 MGX” hướng tới thị trường năm 2026.
Việc này cho thấy rõ xu hướng: các hãng lớn đang chuẩn bị hạ tầng máy chủ dành riêng cho AI để đón “siêu chu kỳ” hạ tầng tính toán.
Tầm quan trọng: nếu thành công, sẽ là bước nâng cấp lớn về máy chủ chuyên dụng cho training/inference AI — ảnh hưởng tới chi phí, hiệu năng và khả năng mở rộng của hệ thống AI.