هوش مصنوعی5 دقیقه مطالعه

انویدیا معماری چیپ جدید روبین را برای شتاب‌دادن به هوش مصنوعی معرفی کرد

انویدیا در نمایشگاه CES 2026 معماری پردازشی جدید روبین را به‌عنوان نسل بعدی تراشه‌های ویژه هوش مصنوعی معرفی کرد. روبین قرار است جایگزین بلک‌ول شود و توان پردازشی و بهره‌وری انرژی را در مراکز داده و ابرهای بزرگ به‌طور چشمگیری افزایش دهد.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویری مفهومی از معماری چیپ جدید برای شتاب‌دهی به زیرساخت هوش مصنوعی

انویدیا در جریان نمایشگاه CES 2026 به‌صورت رسمی از معماری پردازشی جدید خود با نام «روبین» رونمایی کرد؛ معماری‌ای که مدیرعامل این شرکت آن را «آخرین دستاورد در سخت‌افزار هوش مصنوعی» توصیف کرده و قرار است نسل فعلی معماری بلک‌ول را در مراکز داده و ابرهای بزرگ جایگزین کند.

روبین چیست و چه تغییری ایجاد می‌کند؟

معماری روبین که نخستین‌بار در سال ۲۰۲۴ معرفی اولیه شده بود، اکنون وارد فاز تولید کامل شده و انویدیا انتظار دارد در نیمه دوم سال ۲۰۲6 عرضه آن به‌طور گسترده افزایش یابد. روبین مجموعه‌ای از شش چیپ است که در کنار هم کار می‌کنند؛ در مرکز آن GPU جدید روبین قرار دارد و در اطراف آن، بهبودهایی در واحدهای ارتباطی NVLink، کنترلر شبکه Bluefield و یک پردازنده جدید با تمرکز بر «استدلال عامل‌محور» برای بارهای کاری هوش مصنوعی مدرن دیده می‌شود.

به گفته انویدیا، این معماری در مقایسه با بلک‌ول، در آموزش مدل‌های هوش مصنوعی تا چند برابر سریع‌تر عمل می‌کند و در کارهای استنتاجی نیز جهش بزرگی در سرعت و بهره‌وری انرژی ارائه می‌دهد. همچنین روبین برای پاسخ‌گویی به نیازهای روزافزون حافظه در مدل‌های بزرگ زبانی و سناریوهای پیچیده مانند هوش مصنوعی عامل‌محور و کارهای طولانی‌مدت، یک لایه ذخیره‌سازی جدید اضافه کرده که به صورت خارجی به واحدهای پردازشی متصل می‌شود تا ظرفیت و مقیاس‌پذیری بیشتری فراهم کند.

تمرکز بر زیرساخت هوش مصنوعی و ابرهای بزرگ

طبق گزارش تک‌کرانچ، تراشه‌های مبتنی بر روبین از هم‌اکنون در برنامه‌ریزی تقریباً همه ارائه‌دهندگان بزرگ خدمات ابری قرار گرفته‌اند و در همکاری‌های پررنگ انویدیا با چندین آزمایشگاه و شرکت بزرگ هوش مصنوعی و همچنین ابرهای عمومی مورد استفاده خواهند بود. این معماری در نسل جدید ابررایانه‌ها و سامانه‌های فوق‌سریع نیز نقشی کلیدی خواهد داشت و نشان می‌دهد رقابت بر سر تأمین توان محاسباتی مورد نیاز مدل‌های عظیم هوش مصنوعی وارد مرحله تازه‌ای شده است.

شتاب‌گرفتن رقابت در زیرساخت هوش مصنوعی برای توسعه‌دهندگان و کسب‌وکارهای ایرانی هم اهمیت دارد؛ زیرا هرچه هزینه و زمان آموزش و اجرای مدل‌ها کاهش یابد، دسترسی به سرویس‌های پیشرفته هوش مصنوعی آسان‌تر می‌شود. در همین راستا، استفاده از سرویس‌های ابری خارجی و ابزارهای حرفه‌ای، مثلاً از طریق خرید اکانت های هوش‌مصنوعی می‌تواند به تیم‌های فنی کمک کند تا بدون سرمایه‌گذاری مستقیم روی سخت‌افزار، از قدرت نسل‌های جدید تراشه‌ها مانند روبین بهره‌مند شوند.

معماری روبین در عین حال نشانه‌ای از برآوردهای بسیار بزرگ درباره بازار زیرساخت هوش مصنوعی است؛ مدیرعامل انویدیا پیش‌تر تخمین زده بود که در چند سال آینده چندین تریلیون دلار در این حوزه سرمایه‌گذاری خواهد شد. چنین ارقامی نشان می‌دهد که رقابت برای ساخت تراشه‌ها، مراکز داده و شبکه‌های پرظرفیت احتمالاً در سال‌های پیش رو ادامه‌دار خواهد بود و معماری‌هایی مانند روبین نقش مهمی در شکل‌دادن آینده این بازار دارند.

منبع خبر: TechCrunch

منبع: TechCrunch

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه