Tiêu thụ năng lượng sẽ tăng đáng kể vì AI

(ĐTCK) Trí tuệ nhân tạo (AI) được kỳ vọng sẽ có tác động lớn nhất đến mọi thứ kể từ khi Internet ra đời, nhưng bước đột phá lớn của AI cũng phải trả giá bằng việc tốn nhiều năng lượng hơn.
Tiêu thụ năng lượng sẽ tăng đáng kể vì AI

Theo nghiên cứu từ Đại học Washington, hàng trăm triệu truy vấn trên ChatGPT có thể tiêu tốn khoảng 1 gigawatt giờ (GWh) mỗi ngày, tương đương với mức tiêu thụ năng lượng mỗi ngày của 33.000 hộ gia đình ở Mỹ.

Sajjad Moazeni, giáo sư kỹ thuật điện và máy tính tại Đại học Washington cho biết: “Mức tiêu thụ năng lượng của một số thứ như truy vấn ChatGPT có thể sẽ tiêu tốn điện gấp 10 đến 100 lần so với một số truy vấn trên email”.

Arijit Sengupta, người sáng lập và Giám đốc điều hành của Aible, một công ty giải pháp AI dành cho doanh nghiệp cho biết: “Chúng tôi có thể chỉ mới đạt được 1% mức độ áp dụng AI trong 2 đến 3 năm tới. Thế giới thực sự đang hướng tới một cuộc khủng hoảng năng lượng thực sự tồi tệ vì AI trừ khi chúng ta khắc phục được một số thứ”.

Trung tâm dữ liệu là trái tim của quá trình tính toán tiên tiến. Chúng là những địa điểm thực tế với hàng nghìn đơn vị xử lý và máy chủ lõi của ngành điện toán đám mây, phần lớn do Google, Microsoft và Amazon quản lý.

Angelo Zino, Phó chủ tịch và nhà phân tích cổ phiếu cấp cao tại CFRA Research cho biết: “Khi mọi người nghĩ về sự thay đổi này đối với các mô hình nền tảng lớn hơn, thì cuối cùng, chúng ta sẽ cần những trung tâm dữ liệu này đòi hỏi nhiều năng lượng hơn về tổng thể”.

Các trung tâm dữ liệu ngày càng chuyển từ sử dụng bộ xử lý đơn giản hơn như CPU sang các bộ xử lý đồ họa hoặc GPU tiên tiến hơn. Những linh kiện này do các công ty như Nvidia sản xuất và sẽ tiêu tốn nhiều năng lượng nhất.

Patrick Ward, Phó chủ tịch Formula Monks, một công ty tư vấn công nghệ AI cho biết: “Trong thập kỷ tới, GPU sẽ là cốt lõi của cơ sở hạ tầng AI và nó tiêu thụ lượng điện năng trên mỗi chu kỳ xử lý gấp 10 đến 15 lần so với CPU. Chúng rất tốn năng lượng”.

“Mức tiêu thụ năng lượng sẽ tăng đáng kể trên quy mô toàn cầu, đơn giản là do tính chất tiêu tốn nhiều năng lượng của AI. Nhưng nếu bạn nhìn vào các sắc thái, điều thú vị là AI cũng cực kỳ hiệu quả ở những việc mà con người không làm được”, ông cho biết thêm.

Chi phí cơ sở hạ tầng khổng lồ

Nghiên cứu được thực hiện bởi Benjamin C. Lee, giáo sư kỹ thuật điện và khoa học máy tính tại Đại học Pennsylvania và giáo sư David Brooks của Harvard cho thấy, mức sử dụng năng lượng của trung tâm dữ liệu ở Mỹ đã tăng trung bình 25% mỗi năm từ năm 2015 đến năm 2021. Đây là trước khi có AI tạo sinh thu hút sự chú ý và mức sử dụng ChatGPT tăng vọt.

Trong khi đó, dữ liệu của Cơ quan Thông tin Năng lượng Mỹ (EIA) tiết lộ rằng tốc độ tăng trưởng hàng năm trong việc triển khai năng lượng tái tạo là 7% trong cùng thời kỳ, mặc dù con số đó dự kiến sẽ tăng lên nhờ các sáng kiến như Đạo luật Giảm lạm phát (IRA).

“Đã có khoảng cách khá lớn giữa tốc độ tăng trưởng giữa năng lượng của trung tâm dữ liệu và việc triển khai năng lượng tái tạo…Chúng tôi gọi nó là điện toán đám mây. Có một chi phí cơ sở hạ tầng rất lớn”, giáo sư Benjamin C. Lee cho biết.

Để hạn chế mức tiêu thụ như vậy, các nhà cung cấp điện toán đám mây lớn như Google Cloud, Microsoft Azure và Amazon Web Services đều đầu tư vào năng lượng tái tạo để phù hợp với mức tiêu thụ điện hàng năm của họ. Các tập đoàn này cũng cam kết về phát thải ròng bằng 0, nghĩa là họ sẽ loại bỏ lượng khí thải carbon mà họ tạo ra.

Microsoft đã quảng bá trạng thái trung hòa carbon 100% kể từ năm 2012 và nói rằng đến năm 2030 sẽ trung hoà carbon. Amazon cho biết, họ dự kiến sẽ cung cấp năng lượng cho các hoạt động của mình bằng 100% năng lượng tái tạo vào năm 2025, như một phần trong mục tiêu đạt được lượng phát thải ròng bằng 0 vào năm 2040. Google đặt mục tiêu đạt phát thải thải ròng bằng 0 trong tất cả các hoạt động của mình trước năm 2030.

Trong khi đó, các nhà phân tích cũng chỉ ra rằng việc giảm chi phí sẽ thúc đẩy lĩnh vực AI hướng tới các giải pháp năng lượng một cách tự nhiên.

“Cho dù đó là do khí thải hay hiệu quả tài chính hay áp lực của nhà đầu tư hay bất cứ điều gì khác, chúng tôi thấy rằng các công ty đang quan tâm nhiều hơn đến cách hoạt động hiệu quả hơn. Đó là một chi phí hoạt động. Chúng ta càng làm việc hiệu quả thì chi phí vận hành càng thấp”, Tegan Keele, Trưởng nhóm công nghệ và dữ liệu khí hậu Mỹ của KPMG cho biết.

Theo CFRA Research, những người chiến thắng trong lĩnh vực này là những nhà vận hành trung tâm dữ liệu.

“Việc sử dụng dữ liệu thực tế và cách kết hợp tất cả những điều này sẽ tập trung hơn vào một số công ty ngoài kia. Ngày càng có nhiều công ty thuê không gian trên đám mây thay vì đầu tư và xây dựng trung tâm dữ liệu của riêng họ, chỉ vì trong tương lai, tôi nghĩ rằng điện toán đám mây sẽ đắt hơn rất nhiều”, ông Angelo Zino cho biết.

Hạc Hiên
Theo báo chí nước ngoài

Tin liên quan

Tin cùng chuyên mục