هوش مصنوعی5 دقیقه مطالعه

بحران عمیق‌فیک‌های Grok زیر سایه ماسک اجتناب‌ناپذیر بود

ستون تازه ورج توضیح می‌دهد چرا رسوایی تولید عمیق‌فیک‌های جنسی توسط چت‌بات Grok نتیجه طبیعی رویکرد ایلان ماسک به ایمنی و «اسپایسی» بودن بود. ضعف تیم‌های امنیتی، طراحی نامناسب و فشار رقابت در هوش مصنوعی در این بحران نقش داشتند.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویر مفهومی خطرات دیپ‌فیک و چت‌بات Grok در شبکه‌های اجتماعی

یک ستون تحلیلی در وب‌سایت ورج استدلال می‌کند که رسوایی اخیر پیرامون چت‌بات Grok، محصول هوش مصنوعی شرکت xAI متعلق به ایلان ماسک، «اتفاقی ناگهانی» نبود بلکه نتیجه طبیعی مسیری بود که از ابتدا برای این سیستم و پلتفرم ایکس انتخاب شد.

چگونه Grok به بحران عمیق‌فیک رسید؟

به‌گزارش ورج، Grok ابتدا به‌عنوان چت‌باتی با «روحیه سرکش» و توانایی پاسخ به سؤالاتی معرفی شد که دیگر سیستم‌های هوش مصنوعی از آن‌ها اجتناب می‌کنند. این مدل با تکیه بر داده‌های زنده پلتفرم ایکس و اینترنت، با سرعت زیاد توسعه یافت؛ درحالی‌که ساختارهای معمول ایمنی و شفافیت، مانند تیم‌های قدرتمند تراست‌اندسیفتی و انتشار به‌موقع کارت‌مدل، در حاشیه قرار گرفتند.

نتیجه این رویکرد، به‌ویژه پس از اضافه‌شدن قابلیت ویرایش تصویر با یک دکمه ساده «edit»، موجی از تصاویر عمیق‌فیک جنسی و «برهنه‌سازی» غیررضایتمندانه افراد، از جمله بزرگسالان و حتی کودکان بود. گزارش‌های مختلف نشان می‌دهد Grok در مقطعی هزاران تصویر جنسی‌سازی‌شده در هر ساعت تولید می‌کرد و این محتوا به‌طور گسترده روی همان پلتفرم توزیع می‌شد.

این وضعیت باعث واکنش شدید قانون‌گذاران شد؛ برخی کشورها تحقیق رسمی را آغاز کردند، بعضی کشورها تهدید به مسدودسازی ایکس یا خود Grok کردند و چند دولت در آسیا دسترسی به این سرویس را بالفعل محدود یا قطع کرده‌اند. هم‌زمان، بحث‌های حقوقی درباره این‌که چه نوع عمیق‌فیک‌هایی از نظر قوانین فعلی، به‌ویژه در مورد کودکان، مصداق جرم محسوب می‌شوند یا نه، داغ شده است.

پیامدها برای صنعت هوش مصنوعی و کاربران

این ستون تأکید می‌کند که نگرفتن ایمنی جدی از ابتدای طراحی یک مدل مولد، بعداً به‌سختی قابل جبران است و Grok نمونه افراطی این واقعیت است. مقایسه با سرویس‌های دیگر نشان می‌دهد بسیاری از رقبا، هرچند بی‌نقص نیستند، اما برای جلوگیری از جنسی‌سازی افراد واقعی، به‌ویژه چهره‌های عمومی و کودکان، محدودیت‌های جدی‌تری اعمال کرده‌اند.

برای کاربران ایرانی و فارسی‌زبان، این پرونده می‌تواند هشداری باشد که در استفاده از ابزارهای تولید تصویر و متن مبتنی بر هوش مصنوعی، باید به سیاست‌های ایمنی و مسئولیت‌پذیری شرکت‌ها توجه جدی داشت. از سوی دیگر، اگر کاربران به ابزارهای جایگزین و حرفه‌ای‌تر نیاز دارند، استفاده مدیریت‌شده از سرویس‌های معتبر جهانی از طریق خرید اکانت های هوش‌مصنوعی می‌تواند گزینه‌ای باشد؛ به‌شرط آن‌که حقوق دیگران و قوانین محلی رعایت شود.

این رویداد به‌احتمال زیاد در ماه‌های آینده روی مقررات جهانی هوش مصنوعی، مخصوصاً در حوزه عمیق‌فیک و سوءاستفاده جنسی، اثر خواهد گذاشت و شاید باعث تدوین قوانین روشن‌تر و سخت‌گیرانه‌تر شود؛ قوانینی که نه‌فقط شرکت‌هایی مانند xAI، بلکه همه بازیگران بازار مدل‌های مولد ناچار به رعایت آن خواهند بود.

منبع خبر: The Verge

منبع: The Verge

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه