Kioxia Cùng Nvidia Phát Triển SSD Tốc Độ Cao Phục Vụ AI
Trọng Hồ
Th 2 09/06/2025
Nội dung bài viết
Trước nhu cầu truy xuất dữ liệu ngày càng khắt khe trong các hệ thống trí tuệ nhân tạo (AI), hãng lưu trữ Kioxia vừa công bố kế hoạch hợp tác với Nvidia để phát triển dòng SSD tốc độ cao thế hệ mới. Sản phẩm hướng tới mục tiêu tăng hiệu suất truyền tải dữ liệu trực tiếp giữa SSD và GPU, giảm độ trễ và tối ưu hóa cho khối lượng công việc cường độ cao trong các mô hình AI hiện đại.
Tăng tốc truy xuất dữ liệu với SSD chuyên biệt cho AI
Theo Kioxia, dòng SSD mới có thể đạt hơn 10 triệu IOPS – tương đương khoảng 5 GB/giây khi xử lý các khối dữ liệu nhỏ. Đây là một bước tiến lớn so với các ổ SSD thông thường, giúp rút ngắn đáng kể thời gian phản hồi trong quá trình đào tạo và triển khai các mô hình AI, đặc biệt là các mô hình ngôn ngữ lớn (LLM) và hệ thống RAG (retrieval-augmented generation).
Điểm nhấn của sản phẩm là bộ điều khiển chuyên dụng, được tối ưu để xử lý hiệu quả các truy vấn khối 512 byte – phù hợp với đặc điểm xử lý phân tán của GPU trong các tác vụ AI.
Ứng dụng XL-Flash SLC: Độ trễ cực thấp, hiệu suất cực cao
Khác với các dòng SSD phổ biến sử dụng NAND 3D, sản phẩm mới của Kioxia ứng dụng công nghệ XL-Flash dạng cell đơn (SLC) – cho độ trễ đọc chỉ từ 3 đến 5 micro giây, nhanh gấp nhiều lần so với mức 40–100 micro giây trên SSD truyền thống. Điều này không chỉ đảm bảo truy xuất dữ liệu tức thì mà còn nâng cao độ bền, rất phù hợp với các máy chủ AI hoạt động liên tục với cường độ cao.
Bên cạnh đó, khả năng xử lý hiệu quả các truy vấn dữ liệu nhỏ và rời rạc cũng giúp tăng tốc độ huấn luyện và suy luận mô hình, đồng thời tiết kiệm đáng kể tài nguyên hệ thống.
Kết nối trực tiếp SSD với GPU: Giải pháp “bỏ qua CPU”
Một điểm đột phá khác của dự án là cơ chế kết nối trực tiếp SSD đến GPU theo kiến trúc peer-to-peer, không cần đi qua CPU trung gian. Cách tiếp cận này giúp giảm đáng kể độ trễ, giảm tải cho CPU và tận dụng triệt để năng lực xử lý song song của GPU hiện đại.
Theo Kioxia, đây chính là hướng đi hiệu quả để khắc phục “nút thắt cổ chai” trong pipeline AI hiện nay, nơi luồng dữ liệu bị gián đoạn bởi khâu xử lý trung gian, ảnh hưởng đến tổng thể hiệu suất hệ thống.
Tối ưu cho truy xuất ngẫu nhiên – không cần PCIe 6.0
Dù hiệu suất cao, dòng SSD AI này không yêu cầu băng thông lớn như PCIe 6.0, mà thay vào đó được thiết kế để tối ưu hóa việc truy xuất ngẫu nhiên các khối dữ liệu nhỏ, phù hợp với đặc tính hoạt động của GPU. Nhờ đó, hệ thống có thể xử lý các đoạn dữ liệu nhỏ một cách linh hoạt và hiệu quả, đảm bảo luồng tính toán diễn ra liên tục và ổn định.
Dự kiến ra mắt vào năm 2026
Kioxia cho biết dòng SSD AI mới sẽ chính thức ra mắt vào nửa cuối năm 2026, mở ra kỷ nguyên mới cho giải pháp lưu trữ chuyên biệt phục vụ trí tuệ nhân tạo. Dù chưa công bố chi tiết về chuẩn giao tiếp sẽ sử dụng, sự hợp tác giữa Kioxia và Nvidia hứa hẹn sẽ định hình lại cách thức xây dựng hạ tầng AI trong tương lai gần.
Trong bối cảnh các mô hình AI ngày càng lớn, phức tạp và yêu cầu thời gian phản hồi cực ngắn, giải pháp lưu trữ tốc độ cao như SSD CAMM2 hoặc SSD XL-Flash do Kioxia phát triển sẽ đóng vai trò then chốt trong việc nâng tầm hiệu suất toàn hệ thống.