AI có thể sớm ‘khát’ điện hơn cả đào Bitcoin và nhiều quốc gia

Ngành công nghiệp AI toàn cầu đang âm thầm tiến tới một ngưỡng tiêu thụ năng lượng có thể định hình lại hệ thống điện và cam kết khí hậu toàn cầu. Những phát hiện mới cho thấy điện năng cần để vận hành các hệ thống AI tiên tiến có thể sẽ vượt qua mức tiêu thụ điện khét tiếng của hoạt động đào Bitcoin vào cuối năm 2025.

AI phát triển nhanh, tiêu thụ điện tăng vọt

Sự bùng nổ của AI tạo sinh đã kéo theo làn sóng xây dựng trung tâm dữ liệu và sản xuất phần cứng. Khi các ứng dụng AI ngày càng phức tạp và phổ biến hơn, phần cứng chuyên biệt để vận hành chúng – như các bộ tăng tốc từ Nvidia và AMD – cũng tăng trưởng với tốc độ chưa từng có. Chính điều này đã khiến lượng điện tiêu thụ tăng vọt: AI được dự báo sẽ chiếm gần một nửa tổng điện năng dùng cho trung tâm dữ liệu vào năm sau, tăng mạnh so với mức khoảng 20% hiện nay.

Những biến động này đã được nghiên cứu kỹ lưỡng bởi Alex de Vries-Gao, nghiên cứu sinh tiến sĩ tại Viện Nghiên cứu Môi trường, Đại học Vrije Amsterdam. Trong công trình đăng trên tạp chí Joule, ông sử dụng dữ liệu công khai về thiết bị, dự báo của các nhà phân tích và báo cáo từ doanh nghiệp để ước tính quy mô sản xuất phần cứng AI và mức tiêu thụ điện của chúng.


Ước tính nhu cầu điện của các module tăng tốc AI và hệ thống AI được sản xuất trong năm 2023 và 2024, cùng với nhu cầu điện tích lũy dự kiến đến năm 2025.
Nhu cầu điện được ước tính dựa trên giả định tỷ lệ sử dụng (utilization rate) là 65% và chỉ số hiệu suất sử dụng điện (PUE – Power Usage Effectiveness) là 1.2. Các thanh sai số thể hiện mức ảnh hưởng khi PUE thay đổi trong khoảng từ 1.1 đến 1.3 và tỷ lệ sử dụng thay đổi trong khoảng từ 55% đến 75%.


Do các tập đoàn công nghệ hiếm khi công bố mức tiêu thụ điện cụ thể cho hoạt động AI, de Vries-Gao đã áp dụng phương pháp “tam giác dữ liệu” – phân tích chuỗi cung ứng chip tiên tiến và năng lực sản xuất của các công ty như TSMC.

Hàng triệu chip AI – và một cơn khát điện khổng lồ

Số liệu cho thấy bức tranh rõ ràng: mỗi bộ tăng tốc AI Nvidia H100 tiêu thụ liên tục 700 watt khi xử lý các mô hình phức tạp. Nhân con số này với hàng triệu đơn vị, mức tiêu thụ điện tổng thể trở nên khổng lồ.

De Vries-Gao ước tính phần cứng AI sản xuất riêng trong giai đoạn 2023–2024 có thể đòi hỏi từ 5,3 đến 9,4 gigawatt, đủ để vượt qua tổng mức tiêu thụ điện quốc gia của Ireland.

Nhưng đó mới chỉ là khởi đầu. Công nghệ đóng gói CoWoS của TSMC – cho phép tích hợp bộ xử lý mạnh và bộ nhớ tốc độ cao thành một khối thống nhất – là nền tảng của hệ thống AI hiện đại. De Vries-Gao phát hiện rằng TSMC đã tăng gấp đôi công suất CoWoS chỉ trong một năm, nhưng vẫn không đủ đáp ứng nhu cầu từ Nvidia và AMD.


Ước tính nhu cầu điện của phần cứng AI vào năm 2025, so sánh với nhu cầu điện của các quốc gia và lĩnh vực khác bao gồm:
Ireland (2023), Thụy Sĩ (2023), Áo (2023), Phần Lan (2022), Hà Lan (2023), hoạt động đào Bitcoin (tháng 3 năm 2025), Vương quốc Anh (2023), Pháp (2023), và tổng nhu cầu điện của các trung tâm dữ liệu (không bao gồm đào tiền mã hóa, năm 2024).


TSMC dự kiến sẽ tiếp tục tăng gấp đôi công suất CoWoS vào năm 2025. Nếu xu hướng hiện tại tiếp tục, mức tiêu thụ điện của hệ thống AI có thể chạm mốc 23 gigawatt vào cuối năm – tương đương với mức tiêu thụ điện trung bình của toàn Vương quốc Anh.

Điều này sẽ khiến AI có dấu chân năng lượng lớn hơn cả hoạt động đào Bitcoin toàn cầu. Cơ quan Năng lượng Quốc tế (IEA) cảnh báo rằng tăng trưởng này có thể khiến tiêu thụ điện của các trung tâm dữ liệu tăng gấp đôi chỉ trong vòng hai năm.

Tăng hiệu suất không theo kịp tốc độ mở rộng

Dù ngành công nghệ đã có những cải thiện về hiệu quả năng lượng và tăng tỷ trọng năng lượng tái tạo, những tiến bộ này không theo kịp với tốc độ mở rộng phần cứng và hạ tầng AI. Tư duy “càng lớn càng tốt” – khi các mô hình ngày càng phình to để đạt hiệu suất cao hơn – đã tạo nên một vòng xoáy tiêu thụ tài nguyên. Ngay cả khi các trung tâm dữ liệu đơn lẻ trở nên tiết kiệm điện hơn, tổng điện năng tiêu thụ của ngành vẫn tiếp tục tăng.


Tỷ lệ phần trăm thay đổi trong ước tính nhu cầu điện của các hệ thống AI vào năm 2025 khi điều chỉnh các giả định đầu vào với một tỷ lệ nhất định. Giả định mặc định đối với tỷ lệ thành phẩm (yield) của CoWoS-S là 100%, vì vậy không thể tăng cao hơn nữa.


Đằng sau, cuộc chạy đua sản xuất phần cứng càng làm phức tạp bài toán tiết kiệm. Mỗi thế hệ chip AI mới yêu cầu công nghệ đóng gói tinh vi hơn. CoWoS-L – công nghệ mới nhất của TSMC, dù rất quan trọng với chip thế hệ mới – lại gặp vấn đề với tỷ lệ sản phẩm đạt yêu cầu thấp.

Trong khi đó, các công ty như Google đang đối mặt với “khủng hoảng công suất điện”, khi nỗ lực xây dựng trung tâm dữ liệu đủ nhanh để đáp ứng nhu cầu AI. Một số dự án thậm chí đã chuyển hướng sử dụng hạ tầng nhiên liệu hóa thạch cũ, với một cơ sở đã đăng ký tới 4,5 gigawatt điện từ khí tự nhiên chỉ để phục vụ cho khối lượng tính toán AI.

Tác động môi trường phụ thuộc vào nơi vận hành AI

Tác động môi trường của AI phụ thuộc rất lớn vào nguồn điện địa phương nơi hệ thống AI được triển khai. Ở những khu vực sử dụng nhiên liệu hóa thạch làm nguồn chính, lượng khí thải carbon phát sinh từ các máy chủ AI sẽ cao hơn đáng kể so với các vùng sử dụng năng lượng tái tạo. Chẳng hạn, một trung tâm dữ liệu ở West Virginia – nơi phụ thuộc vào than – thải ra gần gấp đôi lượng khí carbon so với một trung tâm tương đương ở California – nơi có năng lượng tái tạo dồi dào.

Tuy nhiên, các ông lớn công nghệ hiếm khi công bố thông tin về địa điểm và cách vận hành hệ thống AI của họ – tạo ra một khoảng trống minh bạch có thể đe dọa đến mục tiêu khí hậu toàn cầu. Sự thiếu minh bạch này khiến các nhà hoạch định chính sách, giới nghiên cứu và công chúng khó đánh giá chính xác tác động môi trường của làn sóng AI hiện nay.

Để lại một bình luận

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *