هوش مصنوعی5 دقیقه مطالعه

مایکروسافت تراشه قدرتمند Maia 200 را برای اجرای مدل‌های هوش مصنوعی معرفی کرد

مایکروسافت از تراشه اختصاصی جدید خود با نام Maia 200 برای پردازش اینفرنس مدل‌های هوش مصنوعی رونمایی کرد. این تراشه با بهبود توان و بهره‌وری، رقیبی برای شتاب‌دهنده‌های موجود در مراکز داده خواهد بود.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویر مفهومی تراشه قدرتمند برای پردازش اینفرنس هوش مصنوعی در مرکز داده

مایکروسافت نسل جدید تراشه اختصاصی خود برای اجرای مدل‌های هوش مصنوعی را با نام Maia 200 معرفی کرده است؛ تراشه‌ای که برای مقیاس‌دادن به «اینفرنس» یا همان اجرای مدل‌ها در مراکز داده طراحی شده و نسبت به نسل قبلی توان و بهره‌وری بسیار بالاتری ارائه می‌دهد.

تراشه Maia 200 چه کاری انجام می‌دهد؟

طبق گزارش تک‌کرانچ، Maia 200 ادامه‌دهنده مسیر Maia 100 است که در سال ۲۰۲۳ معرفی شد و حالا با تعداد بسیار بالای ترانزیستور و توان محاسباتی چندین پتابلاپس در دقت‌های پایین (۴ و ۸ بیت) عرضه می‌شود. تمرکز این تراشه روی مرحله اینفرنس است؛ جایی که مدل‌های بزرگ زبانی و تصویری پس از آموزش، برای پاسخ‌گویی به کاربران و اجرای سناریوهای عملیاتی به توان پردازشی نیاز دارند.

هزینه اینفرنس به‌تدریج به یکی از مهم‌ترین بخش‌های هزینه‌ای شرکت‌های فعال در هوش مصنوعی تبدیل شده و به همین دلیل، بهینه‌سازی آن برای کاهش مصرف انرژی و افزایش توان، اهمیت استراتژیک دارد. مایکروسافت امیدوار است Maia 200 بتواند اجرای مدل‌های بسیار بزرگ را در یک نود سخت‌افزاری ساده‌تر و کم‌هزینه‌تر کند و در عین حال حاشیه امنی برای نسل‌های بعدی مدل‌ها فراهم آورد.

رقابت با غول‌های تراشه و اهمیت برای صنعت

ورود Maia 200 بخشی از روند گسترده‌تر حرکت غول‌های فناوری به سمت طراحی تراشه‌های اختصاصی است؛ حرکتی که هدف آن کاهش وابستگی به پردازنده‌های گرافیکی گران‌قیمت بازار و به‌ویژه محصولات یک تأمین‌کننده مسلط است. گوگل با TPU، آمازون با تراشه‌های Trainium و حالا مایکروسافت با Maia، در تلاش‌اند بخشی از بار پردازش آموزش و اجرای مدل‌ها را از دوش GPUهای عمومی بردارند و کنترل بیشتری روی زنجیره سخت‌افزار خود داشته باشند.

مایکروسافت اعلام کرده است که Maia 200 در حال حاضر برای اجرای مدل‌های داخلی این شرکت، از جمله سرویس‌های چت‌بات و تیم سوپراینتلیجنس مورد استفاده قرار می‌گیرد و توسعه‌دهندگان، پژوهشگران و آزمایشگاه‌های مرزی هوش مصنوعی نیز می‌توانند از طریق کیت توسعه نرم‌افزاری این تراشه، بارهای کاری خود را روی آن آزمایش کنند. برای بسیاری از توسعه‌دهندگان ایرانی که با محدودیت منابع سخت‌افزاری روبه‌رو هستند، روند حرکت به سمت تراشه‌های اختصاصی می‌تواند به معنای دسترسی به سرویس‌های ابری متنوع‌تر و کاراتر در آینده باشد؛ به‌ویژه اگر از طریق سرویس‌های بین‌المللی به این زیرساخت‌ها متصل شوند.

در کنار این زیرساخت‌ها، کاربران و تیم‌های ایرانی برای بهره‌گیری بهتر از مدل‌های هوش مصنوعی می‌توانند از سرویس‌های ابری و اکانت‌های آماده نیز استفاده کنند. به‌عنوان مثال، استفاده از پلتفرم‌های مختلف از طریق خرید اکانت های هوش‌مصنوعی می‌تواند راهی ساده برای دسترسی به ابزارهای مبتنی بر همین نوع تراشه‌ها و زیرساخت‌های ابری باشد، بدون اینکه نیاز به سرمایه‌گذاری مستقیم روی سخت‌افزار گران‌قیمت در داخل کشور وجود داشته باشد.

در مجموع، معرفی Maia 200 نشان می‌دهد که رقابت در لایه سخت‌افزار هوش مصنوعی همان‌قدر جدی است که در لایه مدل‌ها و سرویس‌ها، و تصمیمات امروز بازیگران بزرگ می‌تواند به شکل مستقیم بر هزینه و کیفیت سرویس‌های هوش مصنوعی در سال‌های آینده تأثیر بگذارد.

منبع خبر: TechCrunch

منبع: TechCrunch

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه