در هفتههای اخیر، شبکه اجتماعی ایکس با سیلی از تصاویر برهنگی غیررضایتی مواجه شده که با استفاده از چتبات هوش مصنوعی Grok تولید و بدون اجازه قربانیان منتشر میشود. این بحران، ضعف چارچوبهای حقوقی و نظارتی برای کنترل محتوای تولیدشده با هوش مصنوعی را پررنگتر کرده است.
هجوم تصاویر دستکاریشده و واکنشها
گزارشهای پژوهشی نشان میدهد حجم تصاویر برهنگی دستکاریشده روی ایکس طی روزهای اخیر بهشدت افزایش یافته و طیف گستردهای از زنان، از مدلها و بازیگران تا چهرههای خبری، قربانی این محتوا شدهاند. حتی برخی قربانیان جرایم و رهبران سیاسی نیز در میان افرادی هستند که تصاویر جعلی آنها در پلتفرم دستبهدست میشود.
انتشار این موج از تصاویر، انتقادهای شدیدی را نسبت به تصمیم برای عرضه مدل Grok بدون محدودیتهای فنی کافی برانگیخته است. در حالی که شرکت ایکس استفاده از ابزارهای هوش مصنوعی برای تولید محتوای غیرقانونی را محکوم کرده، هنوز مشخص نیست چه تغییرات فنی مشخصی روی مدل اعمال شده است و فقط برخی تنظیمات ظاهری، مانند حذف زبانه عمومی رسانه در حساب Grok، دیده میشود.
فشار نهادهای ناظر بینالمللی
در سطح حاکمیتی، اتحادیه اروپا از جدیترین بازیگران این پرونده است و از xAI خواسته تمامی اسناد مرتبط با چتبات Grok را حفظ کند؛ اقدامی که میتواند مقدمه یک تحقیقات رسمی تازه باشد. در بریتانیا، رگولاتور Ofcom اعلام کرده بهسرعت ارزیابی میکند که آیا نقض احتمالی مقررات رخ داده است یا نه و نخستوزیر این کشور، پدیده انتشار این تصاویر را «شرمآور» و «نفرتانگیز» توصیف کرده است.
در استرالیا نیز کمیسیونر ایمنی آنلاین از افزایش قابل توجه شکایتهای مرتبط با محتوای منتسب به Grok خبر داده و وعده استفاده از ابزارهای نظارتی موجود را داده است. هند، بهعنوان یکی از بزرگترین بازارهای ایکس، از شرکت خواسته در مهلتی مشخص گزارشی از اقدامات اصلاحی خود ارائه کند؛ گزارشی که هرچند ارسال شده، اما هنوز معلوم نیست نهاد ناظر هندی آن را کافی بداند یا نه. در صورت نارضایتی، احتمال بهخطر افتادن وضعیت «پناهگاه ایمن» ایکس در این کشور مطرح است.
چالش جهانی قانونگذاری در عصر هوش مصنوعی
این رویداد نشان میدهد مقررات فعلی در بسیاری کشورها هنوز برای مواجهه با محتوای تولیدشده با هوش مصنوعی آماده نیستند؛ محتوایی که میتواند در عرض چند ثانیه آبرو و امنیت روانی افراد را هدف قرار دهد. برای کاربران ایرانی نیز، این ماجرا هشداری جدی است که با گسترش ابزارهای مولد تصویر، خطر سوءاستفاده و انتشار تصاویر جعلی افزایش مییابد و آگاهی حقوقی و استفاده از ابزارهای امن اهمیت بیشتری پیدا میکند. در همین فضا، استفاده هوشمندانه و اخلاقمحور از ابزارهای هوش مصنوعی — از مدلهای گفتوگومحور تا تولید تصویر — و حتی انتخاب سرویسها و پلتفرمها از جمله خرید اکانت های هوشمصنوعی باید همراه با در نظر گرفتن حریم خصوصی و امنیت شخصی باشد.
این پرونده احتمالاً در ماههای آینده به یکی از نمونههای مرجع برای سیاستگذاران حوزه فناوری تبدیل خواهد شد؛ نمونهای که نشان میدهد ترکیب شبکههای اجتماعی جهانی با ابزارهای قدرتمند تولید محتوای تصویری، بدون طراحی محافظتهای کافی، چه پیامدهایی میتواند داشته باشد.
منبع خبر: TechCrunch




