«پس از انویدیا، کوالکام و AMD هم از حافظه SOCAMM2 استفاده میکنند

گزارشها نشان میدهد کوالکام و AMD قصد دارند همانند انویدیا، از حافظه SOCAMM2 در محصولات خود برای هوش مصنوعی خود استفاده کنند. هدف از این کار افزایش ظرفیت و پهنای باند حافظه برای سیستمهای AI و تامین حافظه سریعتر برای شتابدهندههای هوش مصنوعی است.
پس از معرفی پردازنده مرکزی Vera انویدیا که از حافظه LPDDR5X در قالب ماژولهای SOCAMM پشتیبانی میکند و قادر به رسیدن به پهنای باند حافظه ۱.۲ ترابایت در ثانیه است، حالا کوالکام و AMD هم بهدنبال تکرار همین فرمول هستند.
SOCAMM2 چه چیزی را تغییر میدهد؟
SOCAMM2 بهعنوان یک حافظه سریع در کنار HBM عمل میکند و اجازه میدهد مدلهای بزرگ AI بهطور کامل در حافظه باقی بمانند، بدون آنکه سیستم مجبور به رجوع مداوم به SSD شود.
در طراحی انویدیا ماژولهای SOCAMM بهصورت حلقهای اطراف CPU قرار میگیرند و انتظار میرود کوالکام و AMD هم همین مسیر را دنبال کنند. در سمت AMD، شتابدهندههای Instinct MI در کنار پردازندههای EPYC گزینه منطقی برای استفاده از این ترکیب بهنظر میرسند، هرچند احتمال توسعه یک پلتفرم کاملاً جدید هم مطرح است.

کوالکام هم در این زمینه بیتجربه نیست. این شرکت هماکنون شتابدهندههای AI200 و AI250 را در سبد خود دارد که تا ۷۶۸ گیگابایت حافظه LPDDR5 روی هر کارت ارائه میدهند. از همین رو اضافه شدن SOCAMM2 میتواند این محصولات را از وابستگی به حافظههای لحیمشده رها کند.
در چنین مدلی سازندگان میتوانند تنها با اضافه یا حذف ماژولهای SOCAMM، نسخههای مختلفی از یک سیستم AI ارائه دهند. بنابراین اگر این برنامهها عملی شوند، SOCAMM2 ممکن است به یکی از اجزای کلیدی نسل بعدی زیرساختهای هوش مصنوعی تبدیل شود.



