کوالکام از حافظه موبایل در رک های هوش مصنوعی به صورت آنبورد استفاده می‌کند

کوالکام از حافظه موبایل در رک های هوش مصنوعی به صورت آنبورد استفاده می‌کند

راهکارهای جدید هوش مصنوعی کوالکام در مقیاس رک، در واقع از حافظه موبایل LPDDR به صورت آنبورد استفاده می‌کند و جسورانه امیدوار است تا با انویدیا و AMD رقابت کند.

کوالکام جدیدترین تراشه‌های هوش مصنوعی خود را معرفی کرده است که برای افزایش مقیاس‌پذیری به یک راهکار استنتاج هوش مصنوعی در سطح رک (rack-level) هدفمند طراحی شده‌اند، اما جالب اینجاست که آنها از حافظه موبایل به صورت آنبورد استفاده می‌کنند.

کوالکام از یک شرکت متمرکز بر موبایل راه درازی را پیموده است و در سال‌های اخیر، این تولیدکننده تراشه در سن دیگو، به بخش‌های جدیدی از جمله محاسبات مصرفی و زیرساخت هوش مصنوعی گسترش یافته است. اکنون، این شرکت جدیدترین تراشه‌های AI200 و AI250 خود را معرفی کرده است که طبق گزارش‌ها برای پیکربندی‌های مقیاس رک طراحی شده‌اند. این نه تنها نشان‌دهنده ورود یک بازیگر جدید به بخشی است که تحت سلطه NVIDIA و AMD است، بلکه کوالکام موفق شده است با استفاده از حافظه LPDDR متمرکز بر موبایل، پیاده‌سازی منحصر به فردی پیدا کند.

قبل از اینکه به جزئیات تراشه‌های هوش مصنوعی تازه معرفی‌شده بپردازیم، بیایید استفاده از حافظه LPDDR را در مقایسه با راه‌حل سنتی‌تر HBM بررسی کنیم. محصولات جدید کوالکام تا ۷۶۸ گیگابایت LPDDR را روی بسته شتاب‌دهنده ارائه می‌دهند که به‌طور قابل‌توجهی بالاتر از ظرفیت HBM است. دلیل اصلی جذاب به نظر رسیدن این سرمایه‌گذاری این است که انرژی و هزینه انتقال داده‌ها را کاهش می‌دهد، مزیت کلیدی که این شرکت آن را رویکرد «نزدیک به حافظه» می‌نامد. در اینجا پیشرفت‌های سنتی که این شرکت با استفاده از LPPDR نسبت به HBM به دست می‌آورد، آورده شده است:

  • راندمان انرژی (کاهش مصرف به ازای هر بیت)
  • نسبت به ماژول‌های HBM امروزی ارزان‌تر است
  • تراکم حافظه بالا (ایده‌آل برای استنتاج (Inferencing)
  • راندمان حرارتی به دلیل اتلاف حرارت کمتر در مقایسه با HBM

اگرچه این پیاده‌سازی خوش‌بینانه به نظر می‌رسد، اما راه‌حل‌های مقیاس رک کوالکام هنوز در مقایسه با گزینه‌های اصلی NVIDIA/AMD کم می‌آورند، صرفاً به این دلیل که اجتناب از استفاده از HBM منجر به پهنای باند حافظه کمتر، تأخیر بیشتر به دلیل رابط باریک و از همه مهم‌تر، استفاده از یک پشته حافظه نابالغ در محیط‌های سرور با گرمای زیاد به صورت 24 ساعته می‌شود. با این حال، هدف در اینجا ارائه یک گزینه استنتاج (Inferencing) توانمند به شرکت‌ها است و استفاده از LPDDR مطمئناً به این هدف دست می‌یابد، اما این پیکربندی‌های مقیاس رک را به یک کاربرد خاص محدود می‌کند.

جدا از این، تراشه‌های AI200 و AI250 دارای خنک‌کننده مایع مستقیم، پروتکل‌های PCIe/Ethernet و مصرف برق ۱۶۰ کیلووات در سطح رک هستند که برای یک راهکار امروزی رقم بسیار پایینی محسوب می‌شود. مهم‌تر از آن، تراشه‌های روی برد از NPUهای شش‌ضلعی این شرکت بهره می‌برند که از نظر قابلیت‌های استنتاج، پشتیبانی از فرمت‌های داده پیشرفته و همچنین ویژگی‌های متمرکز بر استنتاج، به‌طور گسترده‌ای در حال گسترش هستند.

جالب اینجاست که بسیاری از ارائه‌دهندگان خدمات محاسباتی، رویکردی به سمت ارائه راهکارهای توانمند به بازار دارند که یکی از جدیدترین نمونه‌های آن، اینتل با راهکار «’Crescent Island’» و انویدیا با معرفی تراشه هوش مصنوعی جدید Rubin CPX است . ظاهراً کوالکام تشخیص داده است که بخش برنامه‌نویسی منطقی استنتاجی (ILP) در حال جلب توجه بازار است، به همین دلیل است که راهکارهای تراشه AI200 و AI250 رویکردی معقول در اینجا هستند. با این حال، برای آموزش‌های مدرن یا حجم کاری زیاد، این رک‌ها احتمالاً آخرین انتخاب خواهند بود.

دیدن رقابت در فضای هوش مصنوعی هیجان‌انگیز است، و ظاهراً خرده‌فروشان با خوش‌بینی زیادی این اطلاعیه‌ها را پذیرفتند.

فروشگاه BAPC
ارسال دیدگاه