Long Bình
Writer
AI hội thoại tiện lợi và phổ biến chưa từng có, nhưng phía sau mỗi câu trả lời là lượng điện tiêu thụ tăng nhanh khiến giới nghiên cứu gióng chuông cảnh báo.
Ngay trong vài năm, ChatGPT đã chạm mốc gần 200 triệu người dùng với hơn một tỷ yêu cầu mỗi ngày. Đến tháng 7/2025, OpenAI cho biết con số này vượt 2,5 tỷ yêu cầu mỗi ngày. Quy mô sử dụng phình to giải thích vì sao trung tâm dữ liệu trở thành “cỗ máy ngốn điện”: năm 2023, các cơ sở này chiếm 4,4% điện năng tiêu thụ tại Mỹ và khoảng 1,5% toàn cầu. Dự báo đến năm 2030, mức tiêu thụ có thể tăng gấp đôi khi nhu cầu AI còn leo thang.
Từ góc nhìn học thuật, giáo sư Mosharaf Chowdhury (Đại học Michigan) cho rằng hai giai đoạn tốn điện nhất là huấn luyện và suy luận. Các mô hình hiện quá lớn để đặt trên một GPU hay một máy chủ, nên phải ghép nhiều máy chủ hoạt động liên tục. Nghiên cứu năm 2023 của Alex de Vries-Gao ước tính một máy Nvidia DGX A100 có thể tiêu thụ tới 6,5 kW. Việc huấn luyện LLM thường cần cụm máy với trung bình 8 GPU mỗi máy, chạy nhiều tuần hoặc nhiều tháng. Riêng GPT-4 được ước tính ngốn 50 GWh, tương đương lượng điện đủ cấp cho toàn bộ San Francisco trong ba ngày.
Sang giai đoạn suy luận, chi phí điện vẫn không hề nhỏ. Mỗi câu hỏi người dùng gửi tới chatbot kích hoạt các cụm máy chủ đáp ứng tức thời. Khi số lượng yêu cầu tăng theo cấp số nhân, tổng điện năng trở thành bài toán lớn. Vấn đề không chỉ nằm ở kích thước mô hình mà còn ở khối lượng truy vấn, nhất là khi những nền tảng như Gemini được kỳ vọng hiện diện ngày càng dày đặc trong thói quen tìm kiếm.
Các nhóm nghiên cứu đang cố gắng đo đếm chính xác hơn để tìm cách cắt giảm. Giáo sư Chowdhury duy trì bảng ML Energy Leaderboard theo dõi mức tiêu thụ năng lượng khi suy luận của các mô hình nguồn mở. Tuy nhiên, số liệu từ các hệ thống AI thương mại vẫn khan hiếm. Nhiều tập đoàn như Google, Microsoft hay Meta công bố dữ liệu rất hạn chế nên khó đánh giá đúng tác động môi trường cũng như dự báo nhu cầu điện trong những năm tới.
Trong bối cảnh thiếu minh bạch, lời kêu gọi chính sách trở nên cấp thiết. De Vries-Gao nhấn mạnh tác động môi trường của ứng dụng số thường bị che khuất. Người dùng có thể tạo áp lực đòi hỏi công khai dữ liệu để lựa chọn có trách nhiệm hơn, đồng thời thúc đẩy quy định buộc doanh nghiệp chịu trách nhiệm.
Nhìn chung, AI hội thoại đang đứng giữa hai lực kéo. Một bên là đà phổ biến chưa có dấu hiệu chững lại. Bên còn lại là bài toán năng lượng và phát thải cần lời giải dựa trên công nghệ, hành vi sử dụng và đặc biệt là minh bạch dữ liệu.

Ngay trong vài năm, ChatGPT đã chạm mốc gần 200 triệu người dùng với hơn một tỷ yêu cầu mỗi ngày. Đến tháng 7/2025, OpenAI cho biết con số này vượt 2,5 tỷ yêu cầu mỗi ngày. Quy mô sử dụng phình to giải thích vì sao trung tâm dữ liệu trở thành “cỗ máy ngốn điện”: năm 2023, các cơ sở này chiếm 4,4% điện năng tiêu thụ tại Mỹ và khoảng 1,5% toàn cầu. Dự báo đến năm 2030, mức tiêu thụ có thể tăng gấp đôi khi nhu cầu AI còn leo thang.
Từ góc nhìn học thuật, giáo sư Mosharaf Chowdhury (Đại học Michigan) cho rằng hai giai đoạn tốn điện nhất là huấn luyện và suy luận. Các mô hình hiện quá lớn để đặt trên một GPU hay một máy chủ, nên phải ghép nhiều máy chủ hoạt động liên tục. Nghiên cứu năm 2023 của Alex de Vries-Gao ước tính một máy Nvidia DGX A100 có thể tiêu thụ tới 6,5 kW. Việc huấn luyện LLM thường cần cụm máy với trung bình 8 GPU mỗi máy, chạy nhiều tuần hoặc nhiều tháng. Riêng GPT-4 được ước tính ngốn 50 GWh, tương đương lượng điện đủ cấp cho toàn bộ San Francisco trong ba ngày.
Sang giai đoạn suy luận, chi phí điện vẫn không hề nhỏ. Mỗi câu hỏi người dùng gửi tới chatbot kích hoạt các cụm máy chủ đáp ứng tức thời. Khi số lượng yêu cầu tăng theo cấp số nhân, tổng điện năng trở thành bài toán lớn. Vấn đề không chỉ nằm ở kích thước mô hình mà còn ở khối lượng truy vấn, nhất là khi những nền tảng như Gemini được kỳ vọng hiện diện ngày càng dày đặc trong thói quen tìm kiếm.
Các nhóm nghiên cứu đang cố gắng đo đếm chính xác hơn để tìm cách cắt giảm. Giáo sư Chowdhury duy trì bảng ML Energy Leaderboard theo dõi mức tiêu thụ năng lượng khi suy luận của các mô hình nguồn mở. Tuy nhiên, số liệu từ các hệ thống AI thương mại vẫn khan hiếm. Nhiều tập đoàn như Google, Microsoft hay Meta công bố dữ liệu rất hạn chế nên khó đánh giá đúng tác động môi trường cũng như dự báo nhu cầu điện trong những năm tới.
Trong bối cảnh thiếu minh bạch, lời kêu gọi chính sách trở nên cấp thiết. De Vries-Gao nhấn mạnh tác động môi trường của ứng dụng số thường bị che khuất. Người dùng có thể tạo áp lực đòi hỏi công khai dữ liệu để lựa chọn có trách nhiệm hơn, đồng thời thúc đẩy quy định buộc doanh nghiệp chịu trách nhiệm.
Nhìn chung, AI hội thoại đang đứng giữa hai lực kéo. Một bên là đà phổ biến chưa có dấu hiệu chững lại. Bên còn lại là bài toán năng lượng và phát thải cần lời giải dựa trên công nghệ, hành vi sử dụng và đặc biệt là minh bạch dữ liệu.