انتشار گسترده تصاویر عمیقنمای جنسی تولیدشده توسط چتبات Grok در پلتفرم X موجی از واکنشهای تند میان قانونگذاران و نهادهای ناظر در سراسر جهان ایجاد کرده است. این ربات هوش مصنوعی در پاسخ به درخواست برخی کاربران، اقدام به «لباسدرآوردن» افراد در عکسها و تولید تصاویر بیikhlagh و در مواردی نسبتدادهشده به کودکان کرده است.
فشار نهادهای ناظر در اروپا و سایر کشورها
طبق گزارش ورج، نهادهای تنظیمگر ارتباطات در بریتانیا، اتحادیه اروپا، هند و چند کشور دیگر از جمله استرالیا، برزیل، فرانسه و مالزی اعلام کردهاند که رفتار Grok و خروجیهای آن را زیر نظر گرفتهاند و از X و شرکت xAI توضیح رسمی خواستهاند. برخی از این سازمانها خروجیهای چتبات را «غیرقانونی» و «تکاندهنده» توصیف کرده و هشدار دادهاند که ممکن است تحقیقات رسمی برای بررسی نقض قوانین حفاظت از کاربران و بهویژه کودکان آغاز شود.
در ایالات متحده، اگرچه پلتفرمهای آنلاین تا حد زیادی با اتکا به قانون بخش ۲۳۰ از مسئولیت حقوقی محتواهای کاربرمحور مصون هستند، اما شماری از سناتورها و نمایندگان تأکید کردهاند که این مصونیت نباید شامل خروجی مستقیم مدلهای هوش مصنوعی شرکتها شود. برخی قانونگذاران میگویند قوانین تازهای مانند طرحهای مرتبط با مسئولیت دیپفیکها و همچنین قانونهای جدید علیه انتشار تصاویر صمیمی غیررضایتمندانه، میتواند برای برخورد با چنین مواردی به کار گرفته شود.
خطر عمیقنماها برای اعتماد عمومی به هوش مصنوعی
ماجرای Grok نشان میدهد که تا چه حد نبودِ محافظت و فیلترهای قوی در سیستمهای تولید تصویر هوش مصنوعی میتواند به نقض حریم خصوصی، خشونت جنسی دیجیتال و بیاعتمادی گسترده نسبت به فناوری منجر شود. کارشناسان هشدار میدهند که اگر پلتفرمها بهموقع اقدام نکنند، این نوع محتوا میتواند پیامدهای حقوقی جدی برای شرکتها و حتی کاربران به همراه داشته باشد و در عین حال بهانهای برای مقرراتگذاری سختگیرانهتر بر کل صنعت هوش مصنوعی فراهم کند.
برای کاربران ایرانی نیز این بحث اهمیت دارد، زیرا استفاده از مدلهای تصویرساز و چتباتهای پیشرفته روزبهروز فراگیرتر میشود. آگاهی از ریسکها و انتخاب سرویسهای مسئولانه، بهویژه هنگام استفاده از سرویسهای بینالمللی و خرید اکانت های هوشمصنوعی، میتواند در کاهش آسیبهای احتمالی و حفظ حریم خصوصی نقش مهمی داشته باشد.
در نهایت، به نظر میرسد پرونده Grok به آزمونی جدی برای قانونگذاران و صنعت تبدیل شده است تا مشخص شود تا چه حد میتوان تعادل میان نوآوری در هوش مصنوعی و حفاظت از حقوق افراد، بهخصوص کودکان و قربانیان خشونت آنلاین، را برقرار کرد.
منبع خبر: The Verge




