RAM HBM3 dùng cho GPU nghiên cứu AI trở nên khan hiếm và giá đẩy lên cao gấp 5 lần so với DRAM thông thường.

Không chỉ nhu cầu chip GPU cho việc nghiên cứu các kỹ thuật deep learning và trí thông minh nhân tạo có xu hướng cao lên mà còn cả chip bộ nhớ ram HBM (High Bandwidth Memory) cũng đang đội giá ở mức độ phi mã. Bằng Chứng là một số nhà cung cấp chip DRAM đã tăng giá bán chip HBM sử dụng trong các thiết bị công nghệ AI.

BusinessKorea đưa tin, các con chip nhớ HBM của SK Hynix và Samsung cung cấp đã tăng giá rất cao, riêng RAM HBM3 hiện giờ giá thành đã gấp 5 lần so với loại chip DRAM có hiệu năng cao nhất hiện tại.

Bản thân Nvidia cũng đã kêu gọi SK Hynix tăng số lượng RAM HBM3 cho kịp với nhu cầu thị trường. Cùng thời điểm, các công ty khác bao gồm Intel cũng đang nghiên cứu việc sử dụng HBM3 với tốc độ lưu trữ có thể đạt đến 819 GB/s. Nên có khả năng SK Hynix sẽ không theo được nhu cầu của những nhà cung cấp.

BusinessKorea nhận định: “Việc ra đời của ChatGPT đã tạo nên hy vọng mới đối với các nhà cung cấp chip nhớ bán dẫn của Hàn Quốc. ChatGPT có quá trình học tập nhờ xử lý lượng dữ liệu lớn qua trí tuệ nhân tạo AI để sau đó giải quyết câu hỏi của chúng ta theo một cách nhanh nhất. Vì thế tốc độ xử lý dữ liệu đã thành nhân tố then chốt giúp tạo ra khả năng xử lý các ngôn ngữ lập trình cao và nhanh chóng hơn. Và hiện nay tất cả những con chip dùng cho các dự án xử lý dữ liệu và AI đang do nhiều doanh nghiệp Hàn Quốc chế tạo.”

Với những tiêu chuẩn HBM và HBM2 hiện nay thường chỉ sử dụng trên một số loại GPU cho dự án AI kiểu cũ như Ampere và Volta cũng tăng, bởi vì mặc dù các thiết kế cũ nhưng lại tạo ra hiệu quả xử lý machine learning đáng kinh ngạc. Về mặt doanh thu, SK Hynix hiện đang nắm khoảng 60 đến 70% thị trường chip nhớ HBM.

 

Nguồn: Tinhte.vn

Trả lời

Email của bạn sẽ không được hiển thị công khai.

Bài viết liên quan

Trả lời

Email của bạn sẽ không được hiển thị công khai.

  • Trang chủ
  • Messenger