مایکروسافت نسل جدید تراشه اختصاصی خود برای اجرای مدلهای هوش مصنوعی را با نام Maia 200 معرفی کرده است؛ تراشهای که برای مقیاسدادن به «اینفرنس» یا همان اجرای مدلها در مراکز داده طراحی شده و نسبت به نسل قبلی توان و بهرهوری بسیار بالاتری ارائه میدهد.
تراشه Maia 200 چه کاری انجام میدهد؟
طبق گزارش تککرانچ، Maia 200 ادامهدهنده مسیر Maia 100 است که در سال ۲۰۲۳ معرفی شد و حالا با تعداد بسیار بالای ترانزیستور و توان محاسباتی چندین پتابلاپس در دقتهای پایین (۴ و ۸ بیت) عرضه میشود. تمرکز این تراشه روی مرحله اینفرنس است؛ جایی که مدلهای بزرگ زبانی و تصویری پس از آموزش، برای پاسخگویی به کاربران و اجرای سناریوهای عملیاتی به توان پردازشی نیاز دارند.
هزینه اینفرنس بهتدریج به یکی از مهمترین بخشهای هزینهای شرکتهای فعال در هوش مصنوعی تبدیل شده و به همین دلیل، بهینهسازی آن برای کاهش مصرف انرژی و افزایش توان، اهمیت استراتژیک دارد. مایکروسافت امیدوار است Maia 200 بتواند اجرای مدلهای بسیار بزرگ را در یک نود سختافزاری سادهتر و کمهزینهتر کند و در عین حال حاشیه امنی برای نسلهای بعدی مدلها فراهم آورد.
رقابت با غولهای تراشه و اهمیت برای صنعت
ورود Maia 200 بخشی از روند گستردهتر حرکت غولهای فناوری به سمت طراحی تراشههای اختصاصی است؛ حرکتی که هدف آن کاهش وابستگی به پردازندههای گرافیکی گرانقیمت بازار و بهویژه محصولات یک تأمینکننده مسلط است. گوگل با TPU، آمازون با تراشههای Trainium و حالا مایکروسافت با Maia، در تلاشاند بخشی از بار پردازش آموزش و اجرای مدلها را از دوش GPUهای عمومی بردارند و کنترل بیشتری روی زنجیره سختافزار خود داشته باشند.
مایکروسافت اعلام کرده است که Maia 200 در حال حاضر برای اجرای مدلهای داخلی این شرکت، از جمله سرویسهای چتبات و تیم سوپراینتلیجنس مورد استفاده قرار میگیرد و توسعهدهندگان، پژوهشگران و آزمایشگاههای مرزی هوش مصنوعی نیز میتوانند از طریق کیت توسعه نرمافزاری این تراشه، بارهای کاری خود را روی آن آزمایش کنند. برای بسیاری از توسعهدهندگان ایرانی که با محدودیت منابع سختافزاری روبهرو هستند، روند حرکت به سمت تراشههای اختصاصی میتواند به معنای دسترسی به سرویسهای ابری متنوعتر و کاراتر در آینده باشد؛ بهویژه اگر از طریق سرویسهای بینالمللی به این زیرساختها متصل شوند.
در کنار این زیرساختها، کاربران و تیمهای ایرانی برای بهرهگیری بهتر از مدلهای هوش مصنوعی میتوانند از سرویسهای ابری و اکانتهای آماده نیز استفاده کنند. بهعنوان مثال، استفاده از پلتفرمهای مختلف از طریق خرید اکانت های هوشمصنوعی میتواند راهی ساده برای دسترسی به ابزارهای مبتنی بر همین نوع تراشهها و زیرساختهای ابری باشد، بدون اینکه نیاز به سرمایهگذاری مستقیم روی سختافزار گرانقیمت در داخل کشور وجود داشته باشد.
در مجموع، معرفی Maia 200 نشان میدهد که رقابت در لایه سختافزار هوش مصنوعی همانقدر جدی است که در لایه مدلها و سرویسها، و تصمیمات امروز بازیگران بزرگ میتواند به شکل مستقیم بر هزینه و کیفیت سرویسهای هوش مصنوعی در سالهای آینده تأثیر بگذارد.
منبع خبر: TechCrunch




