دادستان کل کالیفرنیا تحقیق تازهای را درباره چتبات تصویری گراک از شرکت xAI آغاز کرده است؛ در حالی که ایلان ماسک هرگونه آگاهی از تولید تصاویر برهنه کودکان توسط این سامانه را رد میکند. این اقدام پس از نگرانی فزاینده دولتها درباره استفاده از گراک برای ساخت تصاویر جنسی دستکاریشده از زنان و در برخی موارد کودکان بدون رضایت آنها انجام شده است.
گسترش تصاویر جنسی دستکاریشده و واکنش مقامها
براساس گزارشها، برخی کاربران در شبکه اجتماعی ایکس از گراک خواستهاند عکس زنان واقعی و حتی کودکان را به تصاویر جنسی یا بیش از حد تحریکآمیز تبدیل کند و این خروجیها سپس در ایکس منتشر شده است. پلتفرمهای رصد محتوا تخمین زدهاند که در اوج ماجرا، بهطور متوسط در هر دقیقه یک تصویر از این نوع در ایکس پست شده و یک نمونه آماری در یک بازه ۲۴ ساعته هزاران تصویر در ساعت را نشان داده است. دادستان کل کالیفرنیا اعلام کرده این محتوا برای آزار و آزارجنسی آنلاین افراد در سراسر اینترنت استفاده شده و تأکید کرده که xAI باید فوراً برای جلوگیری از ادامه این روند اقدام کند.
دفتر دادستان قرار است بررسی کند که xAI دقیقاً چگونه و تا چه حد قوانین مرتبط با تصاویر جنسی غیررضایتمندانه و محتوای سوءاستفاده جنسی از کودکان را نقض کرده است. در سطح فدرال، قانونی که سال گذشته تصویب شد، توزیع آگاهانه تصاویر خصوصی جنسی غیررضایتمندانه – از جمله دیپفیکها – را جرمانگاری میکند و پلتفرمها را ملزم میسازد چنین محتواهایی را در مهلت مشخص حذف کنند. کالیفرنیا هم مجموعه قوانین جداگانهای برای مقابله با دیپفیکهای جنسی وضع کرده که فشار حقوقی بر توسعهدهندگان هوش مصنوعی را بیشتر میکند.
اقدامات xAI و فشار جهانی بر صنعت هوش مصنوعی
گزارشها حاکی است xAI برای کاهش سوءاستفادهها، برخی «محافظها» را اضافه کرده است؛ از جمله اینکه دسترسی به برخی درخواستهای تولید تصویر تنها برای کاربران پریمیوم ممکن شده و حتی در این حالت نیز ممکن است تصویر تولید نشود یا به شکل ملایمتری پاسخ داده شود. با این حال، کارشناسان میگویند رفتار سامانه هنوز ناسازگار است و گراک در قبال تولید محتوای مرتبط با خالقان محتوای بزرگسال انعطاف بیشتری نشان میدهد. این ماجرا تنها محدود به آمریکا نیست؛ چند کشور در آسیا دسترسی به گراک را موقتاً مسدود کردهاند و نهادهای تنظیمگر در اروپا و بریتانیا هم بررسیهای رسمی درباره این محصول آغاز کردهاند.
برای کاربران ایرانی و فعالان حوزه فناوری، این پرونده نشان میدهد که بحث تنظیمگری هوش مصنوعی بهویژه در حوزه تصاویر دستکاریشده و محتوای جنسی به سرعت در حال جدیتر شدن است. آشنایی با این روندها برای کسانی که از ابزارهای تولید تصویر یا متن مبتنی بر هوش مصنوعی استفاده میکنند – از جمله کاربرانی که به فکر خرید اکانت های هوشمصنوعی و بهرهبرداری حرفهای از این سرویسها هستند – اهمیت دارد، زیرا استانداردهای ایمنی و الزامات قانونی میتواند بر دسترسی و نوع کاربرد این ابزارها تأثیر بگذارد.
این پرونده همچنین بحث مسئولیت پلتفرمها را دوباره به مرکز توجه آورده است؛ اینکه توسعهدهندگان مدلهای مولد تا چه حد باید بهصورت پیشگیرانه جلوی سوءاستفاده را بگیرند و تا چه اندازه میتوانند مسئول رفتار کاربران شناخته شوند. برخی کارشناسان حقوقی میگویند نهادهای تنظیمگر ممکن است در آینده توسعهدهندگان را به اتخاذ تدابیر فعالانهتری برای جلوگیری از تولید چنین محتواهایی ملزم کنند.
منبع خبر: TechCrunch




