Trong kỷ nguyên số hóa mạnh mẽ, trí tuệ nhân tạo (AI) đang trở thành nền tảng của đổi mới công nghệ và tăng trưởng kinh tế toàn cầu. Từ các mô hình ngôn ngữ lớn như ChatGPT, Claude, Gemini đến các ứng dụng AI thời gian thực trong y tế, giao thông hay sản xuất thông minh, AI ngày càng thể hiện vai trò thiết yếu trong đời sống và sản xuất. Đằng sau sự phát triển đó là nhu cầu ngày càng cao đối với hạ tầng tính toán, mà trọng tâm là các trung tâm dữ liệu (data centers) phục vụ AI. Tuy nhiên, sự mở rộng nhanh chóng của các trung tâm dữ liệu AI cũng đặt ra những thách thức nghiêm trọng về năng lượng, khi dự báo cho thấy đến năm 2030, chúng có thể tiêu thụ lượng điện cao gấp bốn lần so với hiện nay.
Hiện tại, các trung tâm dữ liệu trên toàn thế giới tiêu thụ khoảng 460 terawatt-giờ (TWh) điện mỗi năm, tương đương khoảng 1,5–2% tổng mức tiêu thụ điện năng toàn cầu. Trong số này, các trung tâm dữ liệu chuyên dụng cho AI ngày càng chiếm tỷ trọng đáng kể, do đặc thù xử lý khối lượng tính toán khổng lồ. Các mô hình học sâu, đặc biệt là các mô hình ngôn ngữ lớn, cần được huấn luyện trên hàng triệu giờ GPU và tiêu tốn hàng gigawatt-giờ (GWh) điện. Việc triển khai các hệ thống AI phức tạp không chỉ diễn ra tại các trung tâm công nghệ lớn mà còn lan rộng tới các nhà máy, cơ sở sản xuất và mạng lưới hạ tầng thông minh, khiến mức tiêu thụ năng lượng tăng không kiểm soát.
Theo dự báo của Cơ quan Năng lượng Quốc tế (IEA) và nhiều viện nghiên cứu độc lập, đến năm 2030, lượng điện tiêu thụ của các trung tâm dữ liệu toàn cầu có thể vượt mốc 2.000 TWh mỗi năm, chiếm khoảng 4% tổng điện năng toàn cầu. Trong đó, các trung tâm dữ liệu AI được xác định là nhân tố chính đóng góp vào mức tăng trưởng này. Một phần lý do là vì tốc độ phát triển của các mô hình AI ngày càng nhanh, kích thước mô hình tăng theo cấp số nhân, từ GPT-2 chỉ vài trăm triệu tham số lên GPT-3 với 175 tỷ, rồi đến các mô hình mới vượt xa cả ngưỡng này. Mỗi lần huấn luyện lại một mô hình như vậy có thể tiêu tốn hàng trăm tấn CO₂, nếu sử dụng năng lượng hóa thạch.

Không dừng lại ở đó, sự lan rộng của AI thời gian thực trên thiết bị đầu cuối – còn gọi là edge AI – càng khiến bức tranh năng lượng thêm phức tạp. Các ứng dụng như camera giám sát thông minh, xe tự hành, robot công nghiệp hay thiết bị IoT sử dụng AI đều yêu cầu tính toán nhanh tại chỗ. Điều này đồng nghĩa với việc một hệ thống phân tán hàng triệu node nhỏ cùng lúc vận hành, góp phần làm tăng tổng mức tiêu thụ điện trên quy mô toàn cầu.
Tác động của sự gia tăng điện năng này không chỉ dừng lại ở những con số thống kê. Các hệ thống điện quốc gia sẽ phải chịu áp lực lớn hơn để đảm bảo cung ứng ổn định cho cả sản xuất, dân sinh và trung tâm dữ liệu. Một số khu vực như Texas (Mỹ), Frankfurt (Đức) hay Quảng Đông (Trung Quốc) đã ghi nhận tình trạng thiếu hụt điện cục bộ do các trung tâm dữ liệu lớn đồng loạt đi vào hoạt động. Mặt khác, nếu phần lớn điện năng vẫn đến từ nhiên liệu hóa thạch, sự bùng nổ AI có thể làm chệch hướng các cam kết giảm phát thải carbon toàn cầu, ảnh hưởng tới các mục tiêu về biến đổi khí hậu.
Từ góc độ kinh tế, chi phí điện năng chiếm một phần đáng kể trong tổng chi phí vận hành của trung tâm dữ liệu. Khi nhu cầu điện tăng nhanh, giá điện có thể bị đẩy lên cao, không chỉ ảnh hưởng đến ngành công nghệ mà còn tạo áp lực cho người dân và các ngành công nghiệp khác. Điều này đặt ra câu hỏi lớn về sự công bằng trong tiếp cận tài nguyên năng lượng cũng như định hướng phát triển hạ tầng công nghệ.
Trước tình hình đó, các giải pháp giảm tiêu thụ điện đang được thúc đẩy mạnh mẽ. Một trong những hướng đi quan trọng là phát triển phần cứng AI tiết kiệm năng lượng hơn, như các chip chuyên dụng TPU, ASIC hoặc các dòng GPU hiệu suất cao với khả năng xử lý trên mỗi watt tốt hơn. Bên cạnh đó, các trung tâm dữ liệu mới đang được thiết kế với hệ thống làm mát tiên tiến như làm mát bằng chất lỏng, làm mát chìm hoặc triển khai tại các khu vực có khí hậu lạnh tự nhiên nhằm tiết kiệm điện làm mát.
Nhiều công ty công nghệ cũng chọn di dời trung tâm dữ liệu tới các vùng có nguồn năng lượng tái tạo dồi dào như Bắc Âu, Canada, hoặc sử dụng điện mặt trời tại các khu vực nhiều nắng như Trung Đông. Thậm chí, một số doanh nghiệp đang phát triển AI để… tiết kiệm điện cho chính hạ tầng AI, bằng cách tự động giám sát, phân phối tải xử lý và tối ưu lịch trình tính toán sao cho hiệu quả nhất về mặt năng lượng.

Tại Việt Nam, vấn đề này cũng đang dần trở nên cấp thiết khi các doanh nghiệp công nghệ bắt đầu đầu tư vào trung tâm dữ liệu AI quy mô lớn. Một ví dụ tiêu biểu là dự án Trung tâm Dữ liệu Digital HUB (DCH) tại Bà Rịa – Vũng Tàu, dự kiến khởi công cuối năm 2025. Nếu không được quy hoạch đi kèm với hạ tầng điện lực tương xứng và chính sách năng lượng tái tạo, Việt Nam có thể đối mặt với nhiều rủi ro về vận hành, chi phí và môi trường khi bước vào cuộc đua AI toàn cầu.
Rõ ràng, trung tâm dữ liệu AI là biểu tượng của tiến bộ công nghệ, nhưng cũng là một “người khổng lồ ngốn điện” cần được kiểm soát chặt chẽ. Bài toán năng lượng không còn là vấn đề phụ trợ mà đã trở thành yếu tố trung tâm trong chiến lược phát triển AI của các quốc gia. Việc đồng bộ hóa giữa đầu tư công nghệ, quy hoạch điện lực, phát triển năng lượng tái tạo và xây dựng chính sách hỗ trợ là điều kiện tiên quyết để đảm bảo AI phát triển bền vững, không gây áp lực quá mức lên hệ sinh thái năng lượng toàn cầu.
