Samsung lại thất bại trước bài test về chip HBM của Nvidia

Sasha
Sasha
Phản hồi: 0

Sasha

Writer
Theo tờ Businesspost của Hàn Quốc, Samsung Electronics lần thứ ba thất bại trong bài kiểm tra để có được chứng nhận của Nvidia với sản phẩm chip băng thông cao HBM3E 12 lớp. Gã khổng lồ công nghệ này hiện đang nhắm đến lần kiểm tra thứ 4 vào tháng 9 tới.

1749962553928.png

Báo cáo chỉ ra rằng nỗ lực mới nhất của Samsung không đáp ứng được các tiêu chuẩn của Nvidia, làm gia tăng thêm nguy cơ không thể tham gia cung cấp chip HBM dành cho AI của hãng công nghệ Hàn Quốc.

Trong khi đó, Micron Technology dường như đang giành được thị phần HBM. Tận dụng các máy liên kết nén nhiệt (TCB) từ Hanmi Semiconductor, Micron được cho là đã tăng năng suất cho cả chip HBM3E 8 lớp và 12 lớp. Phiên bản 12 lớp đã đạt tỷ lệ năng suất 70%, trong khi phiên bản 8 lớp đã đạt 75%.

Hãng nghiên cứu UBS Group gần đây cũng báo cáo rằng chứng nhận của Samsung cho HBM3E 12 lớp vẫn "đang chờ xử lý" và dự kiến rằng nguồn cung cấp của công ty cho Nvidia có thể bị trì hoãn cho đến quý 4 năm 2025. Sự chậm trễ này có thể thay đổi động lực trong bối cảnh cạnh tranh của HBM khi các nhà sản xuất chip AI như Nvidia đòi hỏi các giải pháp bộ nhớ nhanh hơn, hiệu quả hơn.

Cạnh tranh gia tăng trên thị trường HBM: Micron, CXMT đạt được lợi nhuận

Micron gần đây đã thông báo rằng họ đã vận chuyển các mẫu HBM4 thế hệ thứ sáu của mình cho các khách hàng quan trọng để sử dụng trong chất bán dẫn AI. Điều này khiến Micron trở thành nhà sản xuất DRAM thứ hai vận chuyển các mẫu HBM4, sau SK Hynix, công ty đã bắt đầu cung cấp các mẫu HBM4 vào tháng 3 năm 2025.

Ở mặt trận Trung Quốc, nhà sản xuất DRAM địa phương ChangXin Memory Technologies (CXMT) được cho là đang đẩy nhanh kế hoạch sản xuất hàng loạt HBM tiên tiến, đặt ra thách thức trực tiếp cho các gã khổng lồ của Hàn Quốc là Samsung Electronics và SK Hynix.

Theo tờ Financial News Korea, CXMT đặt mục tiêu cung cấp các mẫu HBM thế hệ thứ tư (HBM3) vào cuối năm 2025 và bắt đầu sản xuất quy mô lớn vào năm 2026. Công ty cũng có kế hoạch phát triển HBM3E vào năm 2027 và đang đẩy nhanh lộ trình cho cả HBM và DDR5.

Ban đầu, CXMT đã có kế hoạch bắt đầu phát triển HBM2 vào năm 2026, nhưng sau đó đã đẩy nhanh tiến độ, bắt đầu sản xuất quy mô nhỏ vào giữa năm 2025. Điều này cho thấy sự thúc đẩy nhanh hơn dự kiến vào không gian HBM.

Trong khi đó, UBS Group đã điều chỉnh triển vọng về nhu cầu HBM do sự chậm trễ trong sản xuất hàng loạt chip AI tùy chỉnh của các công ty công nghệ lớn. Công ty này hiện dự báo nhu cầu HBM toàn cầu ở mức 163 tỷ gigabyte (GB) vào năm 2025, giảm so với ước tính trước đó là 189 tỷ GB và dự kiến nhu cầu năm 2026 sẽ đạt 254 tỷ GB, thấp hơn một chút so với dự báo trước đó là 261 tỷ GB.
 


Đăng nhập một lần thảo luận tẹt ga
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9zYW1zdW5nLWxhaS10aGF0LWJhaS10cnVvYy1iYWktdGVzdC12ZS1jaGlwLWhibS1jdWEtbnZpZGlhLjYzMDM3Lw==
Top