DANH MỤC SẢN PHẨM

Hàng triệu chip Nvidia H100 ngốn điện như thế nào

Gấu Nâu (Tuấn)
Th 5 28/12/2023
Nội dung bài viết

 

Tổng lượng điện tiêu thụ của hàng triệu chip AI H100 được đánh giá tương đương với một thành phố lớn ở Mỹ hoặc một quốc gia nhỏ ở châu Âu.

Nvidia hiện đang đứng đầu trong lĩnh vực chip AI, và GPU H100 của họ đã đạt doanh số hàng triệu chiếc và liên tục gặp tình trạng khan hàng. Theo trang công nghệ Tom's Hardware, Paul Churnock, một kỹ sư chịu trách nhiệm về chiến lược và quản lý kỹ thuật trung tâm dữ liệu tại Microsoft, cho biết mỗi GPU H100 có công suất 700 W.

 

Chip AI H100. Ảnh: Nvidia

Theo Churnock, "Với việc sử dụng 61% hàng năm, H100 có mức tiêu thụ điện tương đương với một hộ gia đình trung bình ở Mỹ (2,51 người/hộ gia đình). Dự kiến doanh số H100 sẽ đạt từ 1,5 đến 2 triệu GPU vào năm 2024. Xét về mức tiêu thụ điện của dân cư theo thành phố, H100 xếp thứ năm, sau Houston, Texas, và trước Phoenix, Arizona."

H100 là GPU xử lý AI bán chạy nhất hiện nay, và mỗi chiếc sẽ tiêu thụ khoảng 3.740 kWh mỗi năm. Nvidia dự kiến bán 3,5 triệu GPU này trong hai năm 2023 và 2024, tổng cộng là 13.091 GWh. So sánh với mức tiêu thụ điện trung bình của một số quốc gia như Georgia, Lithuania, và Guatemala, con số này tương đương.

Trước đó, vào tháng 10, công ty Schneider Electric cũng đã thống kê tổng lượng điện tiêu thụ của các trung tâm dữ liệu AI, số liệu này ngang bằng với Cyprus.

Trong tương lai, các dòng GPU mới như B100 Blackwell của Nvidia có thể đòi hỏi nhiều điện hơn so với H100, nhưng các chuyên gia kỳ vọng rằng các GPU AI thế hệ mới sẽ có khả năng thực hiện nhiều công việc hơn đối với mỗi đơn vị năng lượng tiêu thụ..

 

Xem thêm

 

Viết bình luận của bạn
Nội dung bài viết