به گزارش
مردم فردا،همانطور که میدانید، پردازندههای گرافیکی (GPU) دارای دهها هزار هسته پردازشی هستند که باعث میشود نسبت به پردازندههای مرکزی با نهایتاً چند صد هسته پردازشی، قدرت پردازشی به مراتب بیشتری در پردازش موازی داشته باشند. همین ویژگی باعث شده در بسیاری از حوزهها از GPUها به عنوان شتابدهنده استفاده شود که یکی از مهمترین و برجستهترین آنها هوش مصنوعی (AI) است.
اخیراً مدیر محصول بخش محاسبات گوگل در جریان یک سخنرانی به موضوع جالبی اشاره کرده و به تشریح نقش CPUها در هوش مصنوعی پرداخته است. چرخه هوش مصنوعی را میتوان به دو بخش یادگیری و استتناج تقسیم کرد. در مرحله یادگیری به منابع پردازشی عظیم و حجم سرسامآوری حافظه رم نیاز است تا به مدل هوش مصنوعی آموزش داده شود. مدلهایی چون GPT-4 و Gemini دارای میلیاردها پارامتر هستند و آموزش به آنها نیازمند هزاران کارت گرافیک یا شتابدهنده پردازشی است.
در طرف دیگر مرحله استتناج که همان اجرا و استفاده از مدل تعلیمدیده است، به منابع پردازشی کمتری نیاز است؛ هرچند که هنوز بکارگیری شتابدهندهگرافیکی به آن کمک میکند. هرچند این مرحله به منابع پردازشی کمتری نیاز دارد، اما به شدت تاخیر و قدرت محاسباتی بر روی سرعت انجام آن تاثیر گذار هستند و بدون داشتن سرعت کافی و تاخیر پایین، نمیتوان با مدلهای هوش مصنوعی به صورت آنی تعامل کرد.
گوگل میگوید به این نتیجه رسیده است که با وجود ایدهآل بودن GPUها برای مرحله آموزش (یادگیری)، مدلهای هوش مصنوعی عمدتاً برای اجرای بهینه بر روی CPUها بهینهسازی شدهاند و در مرحله استتناج بیشتر از GPU، به CPU متکی هستند. این واقعیت باعث شده برخی مشتریان گوگل CPU را به عنوان پردازنده اصلی برای اجرای مدلهای هوش مصنوعی خود انتخاب کنند.
با وجود ادعاهای یاد شده، یکی از دلایل ترجیح دادن CPUها میتواند هزینه پایینتر باشد. میدانیم CPUهای معمولی به وفور و با قیمت بسیار کمتر نسبت به شتابدهندههای گرافیکی رده بالا انویدیا در دسترس هستند. همچنین توسعه مدلهای هوش مصنوعی برای CPU آسانتر از GPU است و در مدلهای کوچکتر میتواند مناسبتر باشد. در طرف دیگر بهرهجستن از توانایی بالای GPUها در پردازش موازی پیچیدگی بالایی هم دارد.
یکی دیگر از مزایای اجرای مدلهای هوش مصنوعی بر روی CPU، تاخیر کمتر است که در کاربردهایی چون چتبات، بسیار حائز اهمیت است.
همزمان ظهور پردازندههای سریعتر با تعداد بیشتری هسته پردازشی و پشتیبانی از دستورالعملهای جدید چون AVX-512 و AMX، باعث شده بهینهسازی برای اجرای مدلهای هوش مصنوعی بر روی CPU به سرعت در حال افزایش باشد. پیشتر اینتل گفته بود مدلهای هوش مصنوعی با حداکثر 20 میلیارد پارامتر به خوبی بر روی CPUها قابل اجرا هستند، اما با عبور از این حد، به شتابدهندههای تخصصی نیاز خواهد بود.