Tổng quan
• OpenAI vừa công bố hợp tác chiến lược với Broadcom để phát triển các accelerator AI tùy chỉnh (AI accelerators) kết hợp với giải pháp mạng (networking) để triển khai các cụm AI thế hệ mới (AI clusters).
• Theo thỏa thuận, OpenAI sẽ chịu trách nhiệm thiết kế các accelerators và hệ thống, còn Broadcom sẽ phụ trách phát triển, sản xuất và triển khai phần cứng.
• Kế hoạch là triển khai các rack chứa hệ thống này từ nửa sau năm 2026 và hoàn thành triển khai quy mô lớn vào cuối năm 2029.
• Dự kiến tổng công suất của các hệ thống custom này sẽ đạt khoảng 10 gigawatt (GW).
Mục tiêu & Động lực của hợp tác
Tăng quyền kiểm soát hạ tầng nội bộ
→ OpenAI muốn chủ động hơn trong chuỗi cung ứng và cấu trúc phần cứng, giảm phụ thuộc vào GPU thương mại của NVIDIA.
Tối ưu chi phí vận hành (TCO)
→ Chip thiết kế riêng giúp giảm chi phí điện năng, làm mát, và chi phí tính toán cho mô hình lớn khi vận hành quy mô toàn cầu.
Tích hợp sâu giữa phần mềm và phần cứng
→ Vì OpenAI hiểu rõ đặc điểm mô hình của mình (như GPT, DALL·E, Whisper…), việc thiết kế chip riêng giúp tối ưu hóa hiệu năng và độ trễ (latency).
Gia tăng hiệu suất & hiệu năng chuyên biệt
→ Các accelerator AI tùy chỉnh có thể được tinh chỉnh cho tác vụ inference và training cụ thể, đạt hiệu suất cao hơn GPU đa dụng.
Giảm phụ thuộc vào nguồn cung GPU khan hiếm
→ Khi nhu cầu AI tăng mạnh, nguồn cung GPU (nhất là của NVIDIA) thường thiếu hụt, nên chip riêng giúp OpenAI đảm bảo kế hoạch mở rộng hạ tầng ổn định.
Cạnh tranh và cân bằng lại thị trường phần cứng AI
→ Đây là bước đi chiến lược để OpenAI tự xây dựng “chân thứ ba” bên cạnh phần mềm và mô hình — hướng tới hệ sinh thái khép kín như Google hay Apple.
Tạo lợi thế dài hạn về công nghệ và chi phí
→ Kiểm soát toàn bộ chuỗi từ chip đến mô hình giúp OpenAI tối ưu chi phí hạ tầng và duy trì lợi thế cạnh tranh lâu dài.
Lộ trình & thời gian dự kiến
• OpenAI và Broadcom đã ký “term sheet” (bản thỏa thuận khung) cho việc triển khai racks tích hợp accelerators và giải pháp mạng.
• Các rack sẽ bắt đầu được triển khai từ nửa sau năm 2026 và dự kiến hoàn tất trước cuối năm 2029.
• Chip do OpenAI thiết kế dự kiến sẽ dùng TSMC (Taiwan Semiconductor Manufacturing Co.) làm đối tác sản xuất (foundry).
• Việc thiết kế chip bắt đầu đã được thực hiện ít nhất từ năm 2024, và nhóm thiết kế nội bộ của OpenAI do Richard Ho lãnh đạo (từng làm việc tại Google) đã làm việc cùng Broadcom.
• Theo báo cáo, OpenAI dự kiến hoàn thiện thiết kế chip đầu tiên trong năm nay (2025) và chuyển sang sản xuất hàng loạt vào năm 2026.
Những vấn đề chưa rõ / thách thức
• OpenAI chưa công bố chi tiết về tài chính liên quan hợp tác này (ví dụ chi phí, phân chia doanh thu, lợi nhuận).
• Không rõ liệu chip này có được bán ra ngoài hay chỉ dùng nội bộ — theo một số nguồn, dự kiến chip này chủ yếu được dùng nội bộ cho OpenAI.
• Sự phức tạp trong thiết kế chip AI (đặc biệt inference, latency, tích hợp mạng, hệ thống bộ nhớ) là rất cao, và việc đưa thiết kế từ phòng thí nghiệm đến sản xuất hàng loạt là một quá trình mạo hiểm.
• Cạnh tranh từ GPU/accelerator của NVIDIA, AMD, và các giải pháp AI từ các công ty lớn như Google, Meta, Microsoft vẫn rất mạnh.
• Việc đảm bảo chuỗi cung ứng, năng lực sản xuất tại TSMC (nếu sử dụng TSMC) có thể bị ảnh hưởng bởi hạn chế sản xuất, ưu tiên công suất, chi phí.
• Rủi ro kỹ thuật: chip mới phải đạt được hiệu năng, độ ổn định, độ tin cậy cao để thay thế hệ GPU hiện tại.