Derpy
Intern Writer
Chào các bạn, chúng ta cùng trò chuyện một chút về một cái tên đình đám trong làng công nghệ nhé: Nvidia. Suốt một thập kỷ qua, Nvidia gần như là "ông trùm" không thể thay thế trong mảng chip máy tính cao cấp dành cho học máy và trí tuệ nhân tạo. Nhờ phần mềm CUDA độc quyền cùng khả năng đổi mới không ngừng, cái tên Nvidia đã trở thành biểu tượng của chip AI, thậm chí có lúc giá trị thị trường của họ còn chạm mốc 5 nghìn tỷ USD (tương đương khoảng 127 triệu tỷ VNĐ) trong năm nay. Chỉ tính riêng từ tháng 2 đến tháng 10 năm 2025, Nvidia đã báo cáo doanh thu lên tới 147,8 tỷ USD (tương đương khoảng 3,76 triệu tỷ VNĐ) từ chip, kết nối mạng và các phần cứng liên quan hỗ trợ sự phát triển của AI.
Thế nhưng, dù những bộ xử lý mới nhất và mạnh mẽ nhất của Nvidia, dòng Grace Blackwell, vẫn đang bán chạy như tôm tươi, thì vị thế độc tôn của họ lại đang dần lung lay. Thay vì chỉ đối mặt với một vài đối thủ, giờ đây Nvidia đang bị thách thức trên nhiều mặt trận khi ngành công nghiệp đang chuyển dịch mạnh mẽ sang các phần cứng chuyên biệt hơn.
Doanh số khủng và lợi nhuận cao ngất ngưởng của Nvidia phần lớn đến từ sự khan hiếm, mà nguyên nhân chính là giới hạn trong sản xuất. Nút thắt cổ chai lớn nhất cho các loại chip cao cấp chính là năng lực đóng gói Chip-on-Wafer-on-Substrate (CoWoS) tiên tiến tại TSMC còn hạn chế. Nvidia hiện đang tiêu thụ phần lớn sản lượng giới hạn này, nhưng cuộc cạnh tranh để giành nguồn cung chip đang ngày càng gay gắt. TSMC, nhà sản xuất duy nhất, có kế hoạch mở rộng công suất lên 100.000 tấm wafer mỗi tháng vào năm 2026. Khi những hạn chế về nguồn cung được nới lỏng, các công ty như Google và AMD được kỳ vọng sẽ hưởng lợi đáng kể.
Nvidia đang đứng trước một rủi ro không nhỏ khi ngành công nghiệp chuyển từ việc thử nghiệm các mô hình nền tảng lớn sang ưu tiên suy luận quy mô lớn, tiết kiệm chi phí. Các nhà cung cấp dịch vụ đám mây lớn đang dần thoát khỏi sự phụ thuộc vào hệ sinh thái CUDA của Nvidia. Họ đang đầu tư vào các chip chuyên biệt của riêng mình cho các tác vụ suy luận khối lượng lớn, nơi chi phí vận hành giờ đây đã vượt qua chi phí đào tạo.
Thậm chí, những khách hàng lớn nhất của Nvidia đang dần trở thành đối thủ cạnh tranh trực tiếp. Bốn "ông lớn" siêu quy mô ở Bắc Mỹ, bao gồm Google, Amazon Web Services, Microsoft và Meta, chiếm phần lớn chi tiêu vốn trong lĩnh vực này. Việc họ cùng nhau chuyển sang sử dụng chip tùy chỉnh là một động thái chiến lược để đảm bảo khả năng cạnh tranh.
Google, một phần của Alphabet, là người tiên phong trong việc phát triển chip AI tùy chỉnh với các đơn vị xử lý Tensor (TPU). Phiên bản mới nhất, TPU v7 ‘Ironwood,’ được tối ưu hóa đặc biệt cho tác vụ suy luận. Ironwood sở hữu bộ nhớ chia sẻ lớn, cho phép kết nối tới 9.216 chip trong một ‘superpod’ duy nhất, giải quyết các hạn chế về bộ nhớ trong các mô hình Mixture-of-Experts (MoE) lớn. Thậm chí, Meta Platforms có thể sẽ thuê và mua chip TPU của Google cho các trung tâm dữ liệu của mình bắt đầu từ năm 2027. Điều này sẽ đánh dấu một sự thay đổi lớn đối với Google, định vị họ như một nhà cung cấp chip thương mại. Một số ước tính cho thấy Google có thể chiếm tới 10% doanh thu hàng năm của Nvidia, tương đương hàng tỷ USD.
Amazon Web Services (AWS) cũng đang theo đuổi việc cải thiện hiệu suất giá thành để thu hút các doanh nghiệp tìm kiếm giải pháp thay thế cho chip đắt đỏ của Nvidia. AWS tuyên bố chip Trainium của họ có thể giảm chi phí đào tạo tới 50% so với GPU, nhắm mục tiêu vào các tác vụ AI tầm trung. AWS cũng đang mở rộng CPU tùy chỉnh của mình, Graviton5, được xây dựng trên công nghệ 3nm, mang lại hiệu suất tốt hơn tới 25% so với phiên bản tiền nhiệm cho các tác vụ chung. Các đối tác như Anthropic đang sử dụng Trainium2 để đào tạo mô hình, cho thấy giá trị của phần mềm Trainium và Neuron SDK của AWS.
Meta thì áp dụng một cách tiếp cận chuyên biệt. Bộ tăng tốc đào tạo và suy luận Meta (MTIA) của họ được thiết kế cho các tác vụ khối lượng lớn, chẳng hạn như cung cấp năng lượng cho các hệ thống đề xuất của Facebook và Instagram. Việc chuyển các tác vụ này sang chip tùy chỉnh cho phép Meta dành những chiếc Nvidia H100 của mình cho nghiên cứu AI tiên tiến.
Chương trình chip tùy chỉnh của Microsoft lại gặp phải một số trở ngại. Chip Maia thế hệ tiếp theo, có tên mã “Braga,” đã bị trì hoãn đến năm 2026, đặt Microsoft vào một vị thế khá khó khăn. Do sự chậm trễ này, Microsoft buộc phải tiếp tục mua GPU Blackwell của Nvidia với giá cao để đáp ứng nhu cầu tính toán của OpenAI. Để bù đắp chi phí, Microsoft cũng đang sử dụng GPU MI300X của AMD, biến họ thành một trong những khách hàng lớn nhất của AMD.
Khi các công ty đám mây lớn phát triển hệ thống riêng, Advanced Micro Devices (AMD) vẫn là lựa chọn thay thế chính cho Nvidia trên thị trường rộng lớn hơn. Chip MI300X của AMD sở hữu bộ nhớ HBM3 lên tới 192GB, nhiều hơn đáng kể so với H100 của Nvidia, rất phù hợp cho tác vụ suy luận mô hình lớn và giúp giảm chi phí. AMD dự kiến doanh số GPU trung tâm dữ liệu của mình sẽ đạt hàng tỷ USD hàng năm, cạnh tranh trực tiếp với Nvidia. Những hạn chế về phần mềm trước đây của AMD đang được giải quyết thông qua trình biên dịch Triton của OpenAI. Triton cho phép các nhà phát triển viết mã hiệu suất cao tương thích với cả phần cứng Nvidia và AMD, mà không yêu cầu chuyên môn sâu về CUDA hay ROCm của AMD. Triton giúp tăng khả năng hoán đổi phần cứng và đơn giản hóa quá trình chuyển đổi khỏi CUDA, từ đó giảm chi phí và giúp các công ty dễ dàng hơn trong việc lựa chọn các nhà cung cấp thay thế.
Thách thức của Nvidia còn phức tạp hơn khi một hệ sinh thái song song, độc lập đang nổi lên ở Trung Quốc, được thúc đẩy bởi các biện pháp kiểm soát xuất khẩu của Mỹ. Huawei đang dẫn đầu cơ sở hạ tầng nội địa này, bù đắp cho việc tiếp cận hạn chế với công nghệ quang khắc EUV bằng các chiến lược kiến trúc thay thế. Chip hàng đầu của Huawei, Ascend 910C, được sản xuất bởi SMIC bằng quy trình Deep Ultraviolet (DUV) 7nm và đã chứng minh được độ tin cậy. Các báo cáo cho thấy nó đạt 60–80% hiệu suất của H100 của Nvidia trong đào tạo và ngang bằng trong một số tác vụ suy luận. Hiệu suất này có được nhờ thiết kế ‘scale-out’ kết nối hàng nghìn NPU Ascend trong các hệ thống như Atlas 950 SuperPoD thông qua một liên kết quang học mới gọi là UnifiedBus. Mạng tốc độ cao này bù đắp cho chất lượng sản xuất thấp hơn, cho phép đào tạo mô hình tiên tiến. Tuy nhiên, việc phát triển sức mạnh tính toán độc lập này rất tốn kém. Tỷ lệ sản xuất chip Ascend 910C tại SMIC chỉ đạt 30–40%, thấp hơn nhiều so với tiêu chuẩn ngành, nhưng chính phủ Trung Quốc dường như sẵn sàng chấp nhận những tổn thất này vì mục đích chiến lược. HiSilicon, công ty bán dẫn của Huawei, có kế hoạch giới thiệu các phiên bản mới của chip Ascend vào năm 2026, cụ thể là Ascend 950PR, sẽ ra mắt vào quý đầu tiên năm 2026, tiếp theo là một biến thể bộ nhớ cao hơn, 950DT, vào quý IV.
Nghịch lý càng sâu sắc hơn trong tuần này khi, mặc dù Tổng thống Mỹ Trump đã ra tín hiệu nới lỏng các hạn chế bằng cách phê duyệt xuất khẩu chip H200 tiên tiến của Nvidia, Bắc Kinh lại cho biết họ sẽ áp đặt các biện pháp kiểm soát nghiêm ngặt của riêng mình đối với việc tiếp cận. Các cơ quan quản lý giám sát chiến dịch độc lập bán dẫn của Trung Quốc đang xem xét các cách để chỉ cho phép tiếp cận hạn chế với H200, chip AI thế hệ tốt thứ hai của Nvidia. Trung Quốc cũng đang đẩy mạnh sản xuất chip nhớ. ChangXin Memory Technologies (CXMT) có kế hoạch bắt đầu sản xuất hàng loạt chip HBM3 vào năm 2026, giúp giảm thiểu các lệnh trừng phạt liên quan đến bộ nhớ trong tương lai.
Nvidia cũng nhận ra thách thức trong việc duy trì lợi nhuận cao, đặc biệt là do những hạn chế sản xuất của TSMC. Để đối phó, Nvidia đang đầu tư vào các thị trường mới, bao gồm các công ty cơ sở hạ tầng viễn thông như Nokia.
Mặc dù đối mặt với nhiều thách thức, Nvidia vẫn được kỳ vọng sẽ duy trì vị trí dẫn đầu trong mảng đào tạo mô hình tiên tiến với lợi nhuận cao cho đến hết năm 2026. Tuy nhiên, thị trường rộng lớn hơn cho các tác vụ suy luận khối lượng lớn có thể sẽ bị thống trị bởi các chip tùy chỉnh từ các nhà cung cấp dịch vụ đám mây lớn. Cuộc cạnh tranh lớn tiếp theo sẽ tập trung vào khả năng kết nối chip. Khi các kết nối điện đạt đến giới hạn, các kết nối quang học đang được áp dụng trong các sản phẩm thương mại. Việc Marvell mua lại Celestial AI và các công ty như Lightmatter, cung cấp tấm wafer quang tử 3D để kết nối chip nhanh hơn, cho thấy các liên kết quang học sẽ trở thành tiêu chuẩn trong các chip AI hàng đầu vào năm 2026. Sự thay đổi này sẽ định vị các công ty như Broadcom và Marvell trở thành những nhà cung cấp chủ chốt.
Thách thức hiện tại của Nvidia là làm sao để duy trì lợi nhuận và giữ vững thị phần trong một ngành công nghiệp đang phát triển nhanh chóng, nơi phần cứng ngày càng chuyên biệt hóa. Tương lai của điện toán AI sẽ được định nghĩa bởi sự kết hợp của các hệ thống chuyên biệt được kết nối bằng công nghệ tiên tiến, chứ không phải là một sự độc quyền duy nhất nữa đâu các bạn ạ.
Nguồn: Eetimes
Thế nhưng, dù những bộ xử lý mới nhất và mạnh mẽ nhất của Nvidia, dòng Grace Blackwell, vẫn đang bán chạy như tôm tươi, thì vị thế độc tôn của họ lại đang dần lung lay. Thay vì chỉ đối mặt với một vài đối thủ, giờ đây Nvidia đang bị thách thức trên nhiều mặt trận khi ngành công nghiệp đang chuyển dịch mạnh mẽ sang các phần cứng chuyên biệt hơn.
Doanh số khủng và lợi nhuận cao ngất ngưởng của Nvidia phần lớn đến từ sự khan hiếm, mà nguyên nhân chính là giới hạn trong sản xuất. Nút thắt cổ chai lớn nhất cho các loại chip cao cấp chính là năng lực đóng gói Chip-on-Wafer-on-Substrate (CoWoS) tiên tiến tại TSMC còn hạn chế. Nvidia hiện đang tiêu thụ phần lớn sản lượng giới hạn này, nhưng cuộc cạnh tranh để giành nguồn cung chip đang ngày càng gay gắt. TSMC, nhà sản xuất duy nhất, có kế hoạch mở rộng công suất lên 100.000 tấm wafer mỗi tháng vào năm 2026. Khi những hạn chế về nguồn cung được nới lỏng, các công ty như Google và AMD được kỳ vọng sẽ hưởng lợi đáng kể.
Nvidia đang đứng trước một rủi ro không nhỏ khi ngành công nghiệp chuyển từ việc thử nghiệm các mô hình nền tảng lớn sang ưu tiên suy luận quy mô lớn, tiết kiệm chi phí. Các nhà cung cấp dịch vụ đám mây lớn đang dần thoát khỏi sự phụ thuộc vào hệ sinh thái CUDA của Nvidia. Họ đang đầu tư vào các chip chuyên biệt của riêng mình cho các tác vụ suy luận khối lượng lớn, nơi chi phí vận hành giờ đây đã vượt qua chi phí đào tạo.
Thậm chí, những khách hàng lớn nhất của Nvidia đang dần trở thành đối thủ cạnh tranh trực tiếp. Bốn "ông lớn" siêu quy mô ở Bắc Mỹ, bao gồm Google, Amazon Web Services, Microsoft và Meta, chiếm phần lớn chi tiêu vốn trong lĩnh vực này. Việc họ cùng nhau chuyển sang sử dụng chip tùy chỉnh là một động thái chiến lược để đảm bảo khả năng cạnh tranh.
Google, một phần của Alphabet, là người tiên phong trong việc phát triển chip AI tùy chỉnh với các đơn vị xử lý Tensor (TPU). Phiên bản mới nhất, TPU v7 ‘Ironwood,’ được tối ưu hóa đặc biệt cho tác vụ suy luận. Ironwood sở hữu bộ nhớ chia sẻ lớn, cho phép kết nối tới 9.216 chip trong một ‘superpod’ duy nhất, giải quyết các hạn chế về bộ nhớ trong các mô hình Mixture-of-Experts (MoE) lớn. Thậm chí, Meta Platforms có thể sẽ thuê và mua chip TPU của Google cho các trung tâm dữ liệu của mình bắt đầu từ năm 2027. Điều này sẽ đánh dấu một sự thay đổi lớn đối với Google, định vị họ như một nhà cung cấp chip thương mại. Một số ước tính cho thấy Google có thể chiếm tới 10% doanh thu hàng năm của Nvidia, tương đương hàng tỷ USD.
Amazon Web Services (AWS) cũng đang theo đuổi việc cải thiện hiệu suất giá thành để thu hút các doanh nghiệp tìm kiếm giải pháp thay thế cho chip đắt đỏ của Nvidia. AWS tuyên bố chip Trainium của họ có thể giảm chi phí đào tạo tới 50% so với GPU, nhắm mục tiêu vào các tác vụ AI tầm trung. AWS cũng đang mở rộng CPU tùy chỉnh của mình, Graviton5, được xây dựng trên công nghệ 3nm, mang lại hiệu suất tốt hơn tới 25% so với phiên bản tiền nhiệm cho các tác vụ chung. Các đối tác như Anthropic đang sử dụng Trainium2 để đào tạo mô hình, cho thấy giá trị của phần mềm Trainium và Neuron SDK của AWS.
Meta thì áp dụng một cách tiếp cận chuyên biệt. Bộ tăng tốc đào tạo và suy luận Meta (MTIA) của họ được thiết kế cho các tác vụ khối lượng lớn, chẳng hạn như cung cấp năng lượng cho các hệ thống đề xuất của Facebook và Instagram. Việc chuyển các tác vụ này sang chip tùy chỉnh cho phép Meta dành những chiếc Nvidia H100 của mình cho nghiên cứu AI tiên tiến.
Chương trình chip tùy chỉnh của Microsoft lại gặp phải một số trở ngại. Chip Maia thế hệ tiếp theo, có tên mã “Braga,” đã bị trì hoãn đến năm 2026, đặt Microsoft vào một vị thế khá khó khăn. Do sự chậm trễ này, Microsoft buộc phải tiếp tục mua GPU Blackwell của Nvidia với giá cao để đáp ứng nhu cầu tính toán của OpenAI. Để bù đắp chi phí, Microsoft cũng đang sử dụng GPU MI300X của AMD, biến họ thành một trong những khách hàng lớn nhất của AMD.
Khi các công ty đám mây lớn phát triển hệ thống riêng, Advanced Micro Devices (AMD) vẫn là lựa chọn thay thế chính cho Nvidia trên thị trường rộng lớn hơn. Chip MI300X của AMD sở hữu bộ nhớ HBM3 lên tới 192GB, nhiều hơn đáng kể so với H100 của Nvidia, rất phù hợp cho tác vụ suy luận mô hình lớn và giúp giảm chi phí. AMD dự kiến doanh số GPU trung tâm dữ liệu của mình sẽ đạt hàng tỷ USD hàng năm, cạnh tranh trực tiếp với Nvidia. Những hạn chế về phần mềm trước đây của AMD đang được giải quyết thông qua trình biên dịch Triton của OpenAI. Triton cho phép các nhà phát triển viết mã hiệu suất cao tương thích với cả phần cứng Nvidia và AMD, mà không yêu cầu chuyên môn sâu về CUDA hay ROCm của AMD. Triton giúp tăng khả năng hoán đổi phần cứng và đơn giản hóa quá trình chuyển đổi khỏi CUDA, từ đó giảm chi phí và giúp các công ty dễ dàng hơn trong việc lựa chọn các nhà cung cấp thay thế.
Thách thức của Nvidia còn phức tạp hơn khi một hệ sinh thái song song, độc lập đang nổi lên ở Trung Quốc, được thúc đẩy bởi các biện pháp kiểm soát xuất khẩu của Mỹ. Huawei đang dẫn đầu cơ sở hạ tầng nội địa này, bù đắp cho việc tiếp cận hạn chế với công nghệ quang khắc EUV bằng các chiến lược kiến trúc thay thế. Chip hàng đầu của Huawei, Ascend 910C, được sản xuất bởi SMIC bằng quy trình Deep Ultraviolet (DUV) 7nm và đã chứng minh được độ tin cậy. Các báo cáo cho thấy nó đạt 60–80% hiệu suất của H100 của Nvidia trong đào tạo và ngang bằng trong một số tác vụ suy luận. Hiệu suất này có được nhờ thiết kế ‘scale-out’ kết nối hàng nghìn NPU Ascend trong các hệ thống như Atlas 950 SuperPoD thông qua một liên kết quang học mới gọi là UnifiedBus. Mạng tốc độ cao này bù đắp cho chất lượng sản xuất thấp hơn, cho phép đào tạo mô hình tiên tiến. Tuy nhiên, việc phát triển sức mạnh tính toán độc lập này rất tốn kém. Tỷ lệ sản xuất chip Ascend 910C tại SMIC chỉ đạt 30–40%, thấp hơn nhiều so với tiêu chuẩn ngành, nhưng chính phủ Trung Quốc dường như sẵn sàng chấp nhận những tổn thất này vì mục đích chiến lược. HiSilicon, công ty bán dẫn của Huawei, có kế hoạch giới thiệu các phiên bản mới của chip Ascend vào năm 2026, cụ thể là Ascend 950PR, sẽ ra mắt vào quý đầu tiên năm 2026, tiếp theo là một biến thể bộ nhớ cao hơn, 950DT, vào quý IV.
Nghịch lý càng sâu sắc hơn trong tuần này khi, mặc dù Tổng thống Mỹ Trump đã ra tín hiệu nới lỏng các hạn chế bằng cách phê duyệt xuất khẩu chip H200 tiên tiến của Nvidia, Bắc Kinh lại cho biết họ sẽ áp đặt các biện pháp kiểm soát nghiêm ngặt của riêng mình đối với việc tiếp cận. Các cơ quan quản lý giám sát chiến dịch độc lập bán dẫn của Trung Quốc đang xem xét các cách để chỉ cho phép tiếp cận hạn chế với H200, chip AI thế hệ tốt thứ hai của Nvidia. Trung Quốc cũng đang đẩy mạnh sản xuất chip nhớ. ChangXin Memory Technologies (CXMT) có kế hoạch bắt đầu sản xuất hàng loạt chip HBM3 vào năm 2026, giúp giảm thiểu các lệnh trừng phạt liên quan đến bộ nhớ trong tương lai.
Nvidia cũng nhận ra thách thức trong việc duy trì lợi nhuận cao, đặc biệt là do những hạn chế sản xuất của TSMC. Để đối phó, Nvidia đang đầu tư vào các thị trường mới, bao gồm các công ty cơ sở hạ tầng viễn thông như Nokia.
Mặc dù đối mặt với nhiều thách thức, Nvidia vẫn được kỳ vọng sẽ duy trì vị trí dẫn đầu trong mảng đào tạo mô hình tiên tiến với lợi nhuận cao cho đến hết năm 2026. Tuy nhiên, thị trường rộng lớn hơn cho các tác vụ suy luận khối lượng lớn có thể sẽ bị thống trị bởi các chip tùy chỉnh từ các nhà cung cấp dịch vụ đám mây lớn. Cuộc cạnh tranh lớn tiếp theo sẽ tập trung vào khả năng kết nối chip. Khi các kết nối điện đạt đến giới hạn, các kết nối quang học đang được áp dụng trong các sản phẩm thương mại. Việc Marvell mua lại Celestial AI và các công ty như Lightmatter, cung cấp tấm wafer quang tử 3D để kết nối chip nhanh hơn, cho thấy các liên kết quang học sẽ trở thành tiêu chuẩn trong các chip AI hàng đầu vào năm 2026. Sự thay đổi này sẽ định vị các công ty như Broadcom và Marvell trở thành những nhà cung cấp chủ chốt.
Thách thức hiện tại của Nvidia là làm sao để duy trì lợi nhuận và giữ vững thị phần trong một ngành công nghiệp đang phát triển nhanh chóng, nơi phần cứng ngày càng chuyên biệt hóa. Tương lai của điện toán AI sẽ được định nghĩa bởi sự kết hợp của các hệ thống chuyên biệt được kết nối bằng công nghệ tiên tiến, chứ không phải là một sự độc quyền duy nhất nữa đâu các bạn ạ.
Nguồn: Eetimes