Nguyễn Hoàng
Intern Writer
Một công ty non trẻ, chưa nổi đình nổi đám như Nvidia, lại đang lặng lẽ cắm cờ đầu tiên tại châu Âu, với một con chip không cần bộ nhớ cao cấp, không phụ thuộc vào nguồn cung Trung Quốc, và được cho là có thể thay đổi cuộc chơi ở mảng suy luận AI tốc độ cao. Có điều gì đang âm thầm dịch chuyển?
Groq đang không chỉ xây hạ tầng, mà còn âm thầm thâm nhập chuỗi giá trị AI bằng con đường ít người để ý: suy luận AI (inference), chứ không phải huấn luyện (training).
Điều thú vị là Groq chọn cách đi khác biệt: không muốn đua ở phân khúc huấn luyện AI, vốn mang lại lợi nhuận cao nhưng bị kiểm soát bởi Nvidia, mà họ chọn mảng suy luận, nơi nhu cầu cao hơn rất nhiều nhưng biên lợi nhuận thấp. Ross thẳng thắn nói rằng họ sẵn sàng nhận lấy phần "khó ăn" này và để các ông lớn giữ phần “ngon”, một cách vừa thực tế vừa thông minh để chen chân vào thị trường.
Jonathan Ross, giám đốc điều hành của Groq Inc., tại Hội nghị thượng đỉnh GenAI ở San Francisco, California, Hoa Kỳ, vào thứ năm, ngày 30/5/2024.
Chỉ trong 4 tuần, họ đã quyết định xong, chọn xong địa điểm, và đang lắp xong dàn máy chủ đầu tiên tại Helsinki. Họ kỳ vọng trung tâm dữ liệu này sẽ hoạt động trong vài ngày tới, một tốc độ khiến nhiều người trong ngành phải bất ngờ. Họ không xây kiểu chậm rãi, bài bản như các tập đoàn truyền thống, mà theo kiểu startup tốc chiến tốc thắng.
Groq mở rộng sang châu Âu: Không phải để cạnh tranh trực tiếp, mà để chiếm khoảng trống
Groq vừa tuyên bố đặt trung tâm dữ liệu đầu tiên tại châu Âu, cụ thể là ở Helsinki, Phần Lan. Đây không phải động thái “thử cho biết” mà là một chiến lược nghiêm túc, kết hợp với đối tác hạ tầng là Equinix – công ty chuyên kết nối các nhà cung cấp đám mây như AWS hay Google Cloud. Lý do chọn Bắc Âu cũng khá rõ: khí hậu mát mẻ, dễ làm mát trung tâm dữ liệu, và nguồn năng lượng tái tạo dồi dào. Nhưng sâu hơn là chuyện chủ quyền dữ liệu – một chủ đề nóng ở châu Âu khi các quốc gia muốn AI được lưu trữ, vận hành trong khu vực, chứ không phụ thuộc hoàn toàn vào Mỹ.Groq đang không chỉ xây hạ tầng, mà còn âm thầm thâm nhập chuỗi giá trị AI bằng con đường ít người để ý: suy luận AI (inference), chứ không phải huấn luyện (training).
“Chúng tôi không cần GPU cao cấp như Nvidia”
Groq không làm GPU như Nvidia, mà họ tự phát triển dòng chip riêng có tên LPU, bộ xử lý ngôn ngữ, chuyên phục vụ quá trình suy luận AI, ví dụ như xử lý đầu ra của chatbot. CEO Jonathan Ross nhấn mạnh rằng họ không dùng loại chip đắt tiền cần bộ nhớ băng thông cao, vốn rất hiếm và đắt đỏ. Điều này giúp Groq bớt phụ thuộc vào chuỗi cung ứng nước ngoài, nhất là Trung Quốc, và tập trung vào sản xuất với các đối tác Bắc Mỹ.Điều thú vị là Groq chọn cách đi khác biệt: không muốn đua ở phân khúc huấn luyện AI, vốn mang lại lợi nhuận cao nhưng bị kiểm soát bởi Nvidia, mà họ chọn mảng suy luận, nơi nhu cầu cao hơn rất nhiều nhưng biên lợi nhuận thấp. Ross thẳng thắn nói rằng họ sẵn sàng nhận lấy phần "khó ăn" này và để các ông lớn giữ phần “ngon”, một cách vừa thực tế vừa thông minh để chen chân vào thị trường.

Jonathan Ross, giám đốc điều hành của Groq Inc., tại Hội nghị thượng đỉnh GenAI ở San Francisco, California, Hoa Kỳ, vào thứ năm, ngày 30/5/2024.