هوش مصنوعی5 دقیقه مطالعه

گزارش ADL: گروک بدترین عملکرد را در مقابله با یهودستیزی دارد

اتحادیه ضدافترا (ADL) در یک مطالعه شش چت‌بات مطرح را در برابر محتوای یهودستیزانه، ضدصهیونیستی و افراطی آزمایش کرده است. در این ارزیابی، مدل Grok متعلق به xAI ضعیف‌ترین عملکرد و Claude بهترین عملکرد را داشته‌اند.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویری مفهومی از مقایسه ایمنی چند چت‌بات هوش مصنوعی

اتحادیه ضدافترا (ADL) در یک مطالعه تازه، شش مدل بزرگ زبانی مطرح را در مواجهه با روایت‌ها و محتوای یهودستیزانه، ضدصهیونیستی و افراطی بررسی کرده است. بر اساس این گزارش، چت‌بات Grok متعلق به شرکت xAI پایین‌ترین نمره را میان این مدل‌ها گرفته و در مقابل، مدل Claude از Anthropic بهترین عملکرد را در شناسایی و مقابله با چنین محتواهایی داشته است.

جزئیات مطالعه ADL روی چت‌بات‌های بزرگ

در این پژوهش، ADL شش مدل Grok، ChatGPT، Claude، Gemini، DeepSeek و Llama را با سناریوهای مختلف آزمایش کرده است؛ از جمله جملات مستقیم حاوی کلیشه‌ها و تئوری‌های توطئه ضدیهودی، گزاره‌های ضدصهیونیستی و همچنین پیام‌های مرتبط با افراط‌گرایی و برتری‌طلبی نژادی. در برخی موارد از مدل‌ها خواسته شده بود با یک گزاره موافقت یا مخالفت کنند و در موارد دیگر باید اسناد یا تصاویر حاوی این مضامین را خلاصه می‌کردند یا برای آن‌ها «نکات کلیدی حمایتی» می‌نوشتند.

نتایج نشان می‌دهد هر شش مدل به بهبودهای جدی نیاز دارند، اما در رتبه‌بندی کلی، Claude بالاترین نمره و Grok پایین‌ترین نمره را به دست آورده است. ADL می‌گوید Grok در اغلب سناریوها «عملکردی به‌طور مداوم ضعیف» داشته و به‌ویژه در تحلیل اسناد و تصاویر مرتبط با نفرت‌پراکنی، عملاً به نمره‌ای نزدیک به صفر رسیده است. این ضعف‌ها به این معناست که استفاده از Grok برای کاربردهایی مانند پایش محتوای تصویری یا مکالمات چندمرحله‌ای حساس، می‌تواند ریسک بالایی داشته باشد.

پیامدها برای صنعت هوش مصنوعی و کاربران

این گزارش برای صنعت هوش مصنوعی یادآوری می‌کند که صرفاً بزرگ بودن مدل و توانایی تولید متن، تضمین‌کننده ایمنی و مسئولیت‌پذیری نیست. در حالی که Claude و ChatGPT طبق این مطالعه نسبتاً بهتر عمل کرده‌اند، ADL تأکید دارد که هیچ‌کدام از مدل‌ها در برابر همه انواع محتوای نفرت‌انگیز و افراطی بی‌نقص نیستند و شرکت‌ها باید سرمایه‌گذاری بیشتری روی ایمنی، پالایش داده و نظارت مداوم انجام دهند. برای کاربرانی که در ایران به‌دنبال استفاده از این ابزارها برای کار، تحصیل یا تولید محتوا هستند، انتخاب پلتفرم‌های دارای سازوکارهای ایمنی قوی‌تر اهمیت زیادی دارد؛ به همین دلیل سرویس‌هایی مانند خرید اکانت های هوش‌مصنوعی که دسترسی مدیریت‌شده به چندین مدل مختلف را فراهم می‌کنند، می‌توانند به انتخاب آگاهانه‌تر و تست چند مدل در کنار هم کمک کنند.

در گزارش همچنین به این نکته اشاره شده است که مدل Grok در گذشته پاسخ‌هایی با مضامین یهودستیزانه تولید کرده و به‌طور کلی نسبت به مضامین سیاسی و ایدئولوژیک، واکنش کم‌فیلترتری نشان داده است. ADL در جمع‌بندی می‌گوید برای آن‌که چنین مدل‌هایی در نقش ابزارهای تشخیص سوگیری، نظارت محتوا یا چت‌بات‌های تعاملی قابل اتکا باشند، به «بهبودهای بنیادی در چندین بُعد» نیاز است.

منبع خبر: The Verge

منبع: The Verge

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه