هزینه 1.5 میلیارد دلاری Nvidia برای پیش خرید حافظه HBM3E
گزارش شده که شرکت Nvidia در رقابتی برای تأمین تامین مواد اولیه حافظه برای GPU های هوش مصنوعی نسل بعدی H200، مبلغ 1.54 میلیارد دلار از حافظه HBM3E را پیش خرید کرده است. اگر شما بیشتر از هر کس دیگری در صنعت پردازندههای کاربردی هوش مصنوعی (AI) و محاسبات با عملکرد بالا (HPC) را بفروشید و میخواهید این وضعیت را حفظ کنید، باید از تأمین پایدار محصولات خود اطمینان حاصل کنید.
نشریه کرهای Chosun Biz گزارش داده است که شرکت Nvidia بیش از 1.3 میلیارد دلار از حافظه HBM3 را از شرکتهای Micron و SK Hynix پیش خرید کرده است. بر اساس گفتگوهای این نشریه، Nvidia پرداختهای پیشپرداختی از 700 میلیارد تا یک تریلیون وون کرهای (حدود 540 تا 770 میلیون دلار) به Micron و SK Hynix انجام داده است. در حالی که اطلاعات خاصی درباره مقصد پرداختها وجود ندارد که میتواند بین 1.080 میلیارد تا 1.54 میلیارد دلار باشد، اما به طور گسترده ای شایع است که هدف این پرداختها تأمین تامین مواد اولیه حافظه HBM3E برای انتشارات آینده 2024 AI و HPC GPU های آن است.
Nvidia در حال افزایش تولید دو محصول با حافظه HBM3E است: GPU H200 AI و HPC با 141GB حافظه HBM3E و پلتفرم GH200 با CPU Grace و یک GPU H200 با 141GB حافظه HBM3E.
در واقع، نرمال نیست که سازندگان GPU محصولات گرانقیمت حافظه را از تأمینکنندگان خود پیش خرید کنند زیرا آسانتر است که GPU های پیشرفته با حافظه فروخته شوند، به ویژه به سازندگان کارتهای گرافیک کوچکتر. در مورد GPU های AI و HPC برای محاسبات، Nvidia تمایل دارد که کارتهای PCIe و ماژولهای SXM تمام شده را بفروشد به جای فقط تراشه GPU، بنابراین منطقی است که Nvidia نیز حافظه HBM3E را تأمین کند. با در نظر گرفتن اینکه GPU های AI و HPC شرکت Nvidia برای چندین ماه آینده تمام شدهاند، شرکت باید از تأمین پایدار حافظه برای محصولات H100، H200، GH200 و سایر محصولاتی که از HBM3 یا HBM3E استفاده میکنند، اطمینان حاصل کند.
هنوز هم دیده می شود که آیا میکرون ، SK Hynix و سامسونگ ظرفیت کافی برای تهیه حافظه HBM3 و HBM3E را به سایر توسعه دهندگان راه حل های AI و HPC مانند AMD ، AWS و Intel خواهند داشت؟