فناوری

«پس از انویدیا، کوالکام و AMD هم از حافظه SOCAMM2 استفاده می‌کنند

گزارش‌ها نشان می‌دهد کوالکام و AMD قصد دارند همانند انویدیا، از حافظه SOCAMM2 در محصولات خود برای هوش مصنوعی خود استفاده کنند. هدف از این کار افزایش ظرفیت و پهنای باند حافظه برای سیستم‌های AI و تامین حافظه سریع‌تر برای شتاب‌دهنده‌های هوش مصنوعی است.

پس از معرفی پردازنده مرکزی Vera انویدیا که از حافظه LPDDR5X در قالب ماژول‌های SOCAMM پشتیبانی می‌کند و قادر به رسیدن به پهنای باند حافظه ۱.۲ ترابایت در ثانیه است، حالا کوالکام و AMD هم به‌دنبال تکرار همین فرمول هستند.

SOCAMM2 چه چیزی را تغییر می‌دهد؟

SOCAMM2 به‌عنوان یک حافظه سریع در کنار HBM عمل می‌کند و اجازه می‌دهد مدل‌های بزرگ AI به‌طور کامل در حافظه باقی بمانند، بدون آنکه سیستم مجبور به رجوع مداوم به SSD شود.

در طراحی انویدیا ماژول‌های SOCAMM به‌صورت حلقه‌ای اطراف CPU قرار می‌گیرند و انتظار می‌رود کوالکام و AMD هم همین مسیر را دنبال کنند. در سمت AMD، شتاب‌دهنده‌های Instinct MI در کنار پردازنده‌های EPYC گزینه‌ منطقی برای استفاده از این ترکیب به‌نظر می‌رسند، هرچند احتمال توسعه‌ یک پلتفرم کاملاً جدید هم مطرح است.

رم SOCAMM  برای هوش مصنوعی

کوالکام هم در این زمینه بی‌تجربه نیست. این شرکت هم‌اکنون شتاب‌دهنده‌های AI200 و AI250 را در سبد خود دارد که تا ۷۶۸ گیگابایت حافظه LPDDR5 روی هر کارت ارائه می‌دهند. از همین رو اضافه شدن SOCAMM2 می‌تواند این محصولات را از وابستگی به حافظه‌های لحیم‌شده رها کند.

در چنین مدلی سازندگان می‌توانند تنها با اضافه یا حذف ماژول‌های SOCAMM، نسخه‌های مختلفی از یک سیستم AI ارائه دهند. بنابراین اگر این برنامه‌ها عملی شوند، SOCAMM2 ممکن است به یکی از اجزای کلیدی نسل بعدی زیرساخت‌های هوش مصنوعی تبدیل شود.

Source link

تیم تحریریه نوین مگ

تیم تحریریه novinmag.ir متشکل از گروهی از نویسندگان و محققان خلاق است که با اشتیاق و دقت، آخرین مطالب و ترندهای روز را در حوزه‌های مختلف گردآوری و ارائه می‌کنند. هدف ما ارائه محتوای کاربردی، آموزنده و جذاب برای خوانندگان است تا تجربه‌ای متفاوت و مفید از دنیای دیجیتال و اطلاعات روز داشته باشند.

نوشته های مشابه

دکمه بازگشت به بالا