Mai Nhung
Writer
Kỷ nguyên thống trị tuyệt đối của Nvidia trong hạ tầng trí tuệ nhân tạo của OpenAI vừa chính thức xuất hiện một vết nứt đáng chú ý. Lần đầu tiên trong lịch sử phát triển, công ty mẹ của ChatGPT đã đưa một mô hình thương mại vào vận hành thực tế trên nền tảng phần cứng không thuộc về "đội xanh" Nvidia. Sự kiện này được đánh dấu bằng màn ra mắt của GPT-5.3-Codex-Spark, một mô hình chuyên biệt hỗ trợ lập trình, hoạt động hoàn toàn dựa trên sức mạnh của Wafer Scale Engine – bộ xử lý khổng lồ đến từ Cerebras Systems.
Sức mạnh của tấm Silicon khổng lồ: 1.000 token mỗi giây
GPT-5.3-Codex-Spark được định vị là phiên bản rút gọn, tiết kiệm năng lượng của dòng Codex trứ danh, được tối ưu hóa đặc biệt cho các tác vụ lập trình nhanh và yêu cầu khả năng tương tác liên tục. Hiện tại, mô hình này đang được cung cấp dưới dạng thử nghiệm giới hạn cho những người đăng ký gói ChatGPT Pro. Điểm nhấn công nghệ của lần ra mắt này không nằm ở thuật toán, mà nằm ở "trái tim" phần cứng vận hành nó: Wafer Scale Engine thế hệ thứ ba của Cerebras.
Khác biệt hoàn toàn với tư duy thiết kế truyền thống của Nvidia – nơi các cụm GPU được ghép nối từ hàng nghìn con chip nhỏ riêng lẻ – kiến trúc của Cerebras sử dụng một tấm silicon nguyên khối khổng lồ. Tấm wafer này chứa hàng trăm nghìn nhân xử lý AI hoạt động đồng bộ, cho phép dữ liệu di chuyển với tốc độ ánh sáng ngay trên mặt chip. Kiến trúc này giúp loại bỏ gần như hoàn toàn các điểm nghẽn về băng thông và độ trễ thường gặp khi dữ liệu phải di chuyển giữa các GPU rời rạc.
Theo công bố từ OpenAI, khi chạy trên hệ thống của Cerebras, GPT-5.3-Codex-Spark có thể đạt tốc độ xử lý kinh hoàng lên tới hơn 1.000 token mỗi giây. Con số này biến nó trở thành công cụ lý tưởng cho các lập trình viên cần chỉnh sửa từng đoạn mã cụ thể (code refactoring) hoặc chạy các bài kiểm tra mục tiêu (unit tests) với phản hồi gần như tức thì, điều mà các hệ thống cũ khó lòng đáp ứng mượt mà.
Chiến lược "đa dạng hóa" và mối quan hệ với Nvidia
Mặc dù bắt đầu có những bước đi cụ thể để giảm bớt sự phụ thuộc, OpenAI vẫn tỏ ra rất khéo léo trong việc duy trì mối quan hệ ngoại giao với đối tác lâu năm. Đầu tháng 2 vừa qua, CEO Sam Altman đã phải lên tiếng trên mạng xã hội X để dập tắt những tin đồn về việc công ty đang không hài lòng với hiệu suất của một số dòng chip Nvidia. Ông khẳng định OpenAI vẫn "yêu thích hợp tác với Nvidia" và ca ngợi đây là nhà sản xuất chip tốt nhất thế giới. Trên thực tế, các mô hình nền tảng mạnh mẽ nhất của OpenAI hiện nay vẫn được đào tạo và vận hành chủ yếu trên hạ tầng H100 và Blackwell của Nvidia.
Tuy nhiên, cái bắt tay với Cerebras là một phần không thể chối cãi trong kế hoạch dài hạn nhằm mở rộng hệ sinh thái phần cứng của OpenAI. Tháng trước, công ty đã xác nhận ký thỏa thuận triển khai hạ tầng tính toán lên tới 750 MW với Cerebras, kéo dài đến năm 2028. Không dừng lại ở đó, OpenAI cũng đã đạt được thỏa thuận mua lượng chip tương đương 6 GW từ AMD trong nhiều năm tới, đồng thời hợp tác với Broadcom để tự thiết kế các bộ tăng tốc AI và linh kiện mạng tùy chỉnh. Những động thái này cho thấy Sam Altman đang xây dựng một "pháo đài" phần cứng đa dạng, giúp OpenAI có vị thế tốt hơn trong đàm phán giá cả và đảm bảo an ninh chuỗi cung ứng.
Tương lai của dòng Codex
Hiện tại, dòng mô hình Codex của OpenAI đã đạt cột mốc ấn tượng với hơn một triệu người dùng hoạt động hàng tuần, chứng tỏ nhu cầu khổng lồ của thị trường đối với các trợ lý lập trình AI. Việc đưa GPT-5.3-Codex-Spark lên hạ tầng Cerebras là một phép thử quan trọng. Nếu mô hình này chứng minh được sự ổn định và hiệu quả kinh tế vượt trội so với GPU truyền thống, OpenAI dự kiến sẽ mở rộng quyền truy cập cho nhiều nhóm người dùng hơn trong thời gian tới. Đây có thể là phát súng mở màn cho một cuộc đua phần cứng mới, nơi Nvidia không còn là lựa chọn duy nhất cho các tác vụ suy luận (inference) AI.
Sức mạnh của tấm Silicon khổng lồ: 1.000 token mỗi giây
GPT-5.3-Codex-Spark được định vị là phiên bản rút gọn, tiết kiệm năng lượng của dòng Codex trứ danh, được tối ưu hóa đặc biệt cho các tác vụ lập trình nhanh và yêu cầu khả năng tương tác liên tục. Hiện tại, mô hình này đang được cung cấp dưới dạng thử nghiệm giới hạn cho những người đăng ký gói ChatGPT Pro. Điểm nhấn công nghệ của lần ra mắt này không nằm ở thuật toán, mà nằm ở "trái tim" phần cứng vận hành nó: Wafer Scale Engine thế hệ thứ ba của Cerebras.
Khác biệt hoàn toàn với tư duy thiết kế truyền thống của Nvidia – nơi các cụm GPU được ghép nối từ hàng nghìn con chip nhỏ riêng lẻ – kiến trúc của Cerebras sử dụng một tấm silicon nguyên khối khổng lồ. Tấm wafer này chứa hàng trăm nghìn nhân xử lý AI hoạt động đồng bộ, cho phép dữ liệu di chuyển với tốc độ ánh sáng ngay trên mặt chip. Kiến trúc này giúp loại bỏ gần như hoàn toàn các điểm nghẽn về băng thông và độ trễ thường gặp khi dữ liệu phải di chuyển giữa các GPU rời rạc.
Theo công bố từ OpenAI, khi chạy trên hệ thống của Cerebras, GPT-5.3-Codex-Spark có thể đạt tốc độ xử lý kinh hoàng lên tới hơn 1.000 token mỗi giây. Con số này biến nó trở thành công cụ lý tưởng cho các lập trình viên cần chỉnh sửa từng đoạn mã cụ thể (code refactoring) hoặc chạy các bài kiểm tra mục tiêu (unit tests) với phản hồi gần như tức thì, điều mà các hệ thống cũ khó lòng đáp ứng mượt mà.
Chiến lược "đa dạng hóa" và mối quan hệ với Nvidia
Mặc dù bắt đầu có những bước đi cụ thể để giảm bớt sự phụ thuộc, OpenAI vẫn tỏ ra rất khéo léo trong việc duy trì mối quan hệ ngoại giao với đối tác lâu năm. Đầu tháng 2 vừa qua, CEO Sam Altman đã phải lên tiếng trên mạng xã hội X để dập tắt những tin đồn về việc công ty đang không hài lòng với hiệu suất của một số dòng chip Nvidia. Ông khẳng định OpenAI vẫn "yêu thích hợp tác với Nvidia" và ca ngợi đây là nhà sản xuất chip tốt nhất thế giới. Trên thực tế, các mô hình nền tảng mạnh mẽ nhất của OpenAI hiện nay vẫn được đào tạo và vận hành chủ yếu trên hạ tầng H100 và Blackwell của Nvidia.
Tuy nhiên, cái bắt tay với Cerebras là một phần không thể chối cãi trong kế hoạch dài hạn nhằm mở rộng hệ sinh thái phần cứng của OpenAI. Tháng trước, công ty đã xác nhận ký thỏa thuận triển khai hạ tầng tính toán lên tới 750 MW với Cerebras, kéo dài đến năm 2028. Không dừng lại ở đó, OpenAI cũng đã đạt được thỏa thuận mua lượng chip tương đương 6 GW từ AMD trong nhiều năm tới, đồng thời hợp tác với Broadcom để tự thiết kế các bộ tăng tốc AI và linh kiện mạng tùy chỉnh. Những động thái này cho thấy Sam Altman đang xây dựng một "pháo đài" phần cứng đa dạng, giúp OpenAI có vị thế tốt hơn trong đàm phán giá cả và đảm bảo an ninh chuỗi cung ứng.
Tương lai của dòng Codex
Hiện tại, dòng mô hình Codex của OpenAI đã đạt cột mốc ấn tượng với hơn một triệu người dùng hoạt động hàng tuần, chứng tỏ nhu cầu khổng lồ của thị trường đối với các trợ lý lập trình AI. Việc đưa GPT-5.3-Codex-Spark lên hạ tầng Cerebras là một phép thử quan trọng. Nếu mô hình này chứng minh được sự ổn định và hiệu quả kinh tế vượt trội so với GPU truyền thống, OpenAI dự kiến sẽ mở rộng quyền truy cập cho nhiều nhóm người dùng hơn trong thời gian tới. Đây có thể là phát súng mở màn cho một cuộc đua phần cứng mới, nơi Nvidia không còn là lựa chọn duy nhất cho các tác vụ suy luận (inference) AI.