AI chưa đáng sợ, thứ phía sau nó mới là cuộc chơi nghìn tỷ USD và Nvidia sẽ làm thế nào?

Nhung Phan
Nhung Phan
Phản hồi: 0

Nhung Phan

Intern Writer
AI đang bùng nổ thật, hay chúng ta mới chỉ nhìn thấy phần nổi của tảng băng?

Khi AI không còn là “tương lai”, mà là cỗ máy in tiền​

Mình vừa đọc một thông tin khá đáng chú ý từ Nvidia. CEO Jensen Huang nói thẳng rằng doanh thu từ chip AI có thể chạm mốc 1.000 tỷ USD (gần 26.283 tỷ đồng) vào năm 2027.

1773734301614.png


Con số này không chỉ lớn, nó còn cho thấy một điều quan trọng hơn, nhu cầu về hạ tầng AI đang tăng cực nhanh, nhanh đến mức chính ông gọi đây là một “bước ngoặt trong logic”.

Hiểu đơn giản, trước đây AI chủ yếu là nghiên cứu, thử nghiệm. Còn bây giờ, nó đang trở thành một thứ được dùng hàng ngày, ở quy mô hàng trăm triệu người.

Cuộc chơi mới: AI không chỉ học, mà phải trả lời ngay lập tức​

Tại hội nghị GTC ở San Jose, Nvidia công bố một con chip mới tên là Vera, kèm theo một hệ thống AI xây dựng từ công nghệ của một startup mà họ đã chi tới 17 tỷ USD (gần 446.803 tỷ đồng) để cấp phép.

Nhưng điểm đáng chú ý không nằm ở cái tên chip, mà nằm ở hướng đi.

Họ đang đặt cược lớn vào cái gọi là inference computing. Hiểu nôm na, đây là giai đoạn AI trả lời người dùng theo thời gian thực, thay vì chỉ được huấn luyện trong phòng lab.

Ví dụ rất gần gũi, khi bạn hỏi ChatGPT, hoặc dùng AI để viết nội dung, dịch thuật, tạo hình ảnh, tất cả đều là inference (Sự suy luận). Trí tuệ nhân tạo (AI Inference): Giai đoạn mô hình đã huấn luyện phân tích dữ liệu mới để đưa ra dự đoán hoặc quyết định.

Và khi hàng trăm triệu người cùng hỏi AI mỗi ngày, thì hạ tầng phía sau phải cực kỳ mạnh. Đó là lý do chip AI trở thành “mỏ vàng”.

Cuộc cạnh tranh ngầm phía sau AI​

Dù Nvidia đang dẫn đầu, họ không đi một mình.

Những công ty như Google cũng đang phát triển chip riêng, cùng với các loại chip chuyên dụng khác để phục vụ AI.

Điều này tạo ra một cuộc cạnh tranh khá thú vị. Không phải cạnh tranh về AI nào thông minh hơn, mà là ai xây được hệ thống vận hành AI rẻ hơn, nhanh hơn, ổn định hơn.

Một điểm nữa ít người để ý, các công ty như OpenAI, Anthropic hay Meta đang chuyển từ việc “huấn luyện AI” sang “phục vụ người dùng hàng loạt”.

Nghĩa là từ giai đoạn làm sản phẩm, sang giai đoạn vận hành quy mô lớn. Và chính bước chuyển này khiến nhu cầu chip AI bùng nổ.

Nhìn rộng hơn một chút​

Điều thú vị là, dù thị trường AI đang bị nghi ngờ về tốc độ tăng trưởng, Nvidia vẫn tự tin rằng nhu cầu hạ tầng sẽ tiếp tục tăng mạnh.

Nói cách khác, có thể AI ứng dụng còn tranh cãi, nhưng AI hạ tầng thì gần như chắc chắn sẽ phát triển.

Và đây mới là lớp nền thật sự của cuộc chơi.

Một góc nhìn thực tế tại Việt Nam​

Nếu nhìn từ góc độ an ninh mạng tại Việt Nam, có một điều cần nói thẳng. Khi AI được triển khai ở quy mô lớn, rủi ro không chỉ là lộ dữ liệu, mà là lệ thuộc hạ tầng nước ngoài.

Phần lớn hệ thống AI hiện nay phụ thuộc vào chip và nền tảng từ các công ty như Nvidia. Nếu không có chiến lược riêng, doanh nghiệp Việt sẽ dễ rơi vào thế bị động, vừa dùng vừa phụ thuộc.

Lời khuyên thực tế: Doanh nghiệp nên bắt đầu từ việc hiểu rõ mình đang dùng AI ở mức nào, dữ liệu nằm ở đâu, và có kiểm soát được hay không. Đừng chạy theo AI chỉ vì xu hướng, hãy nhìn vào hạ tầng và bảo mật trước. (unn.ua)
 


Đăng nhập một lần thảo luận tẹt ga
Thành viên mới đăng
http://textlink.linktop.vn/?adslk=aHR0cHM6Ly93d3cudm5yZXZpZXcudm4vdGhyZWFkcy9haS1jaHVhLWRhbmctc28tdGh1LXBoaWEtc2F1LW5vLW1vaS1sYS1jdW9jLWNob2ktbmdoaW4tdHktdXNkLXZhLW52aWRpYS1zZS1sYW0tdGhlLW5hby44MDY2OS8=
Top