در قسمت تازه پادکست «Decoder» وبسایت ورج، نیلای پاتل به همراه رِیانا پِفِرکورن به این پرسش میپردازند که چرا با وجود جنجال گسترده، هنوز کسی نتوانسته جلوی گروک، ربات هوش مصنوعی شرکت xAI متصل به پلتفرم ایکس، را برای تولید و انتشار انبوه دیپفیکها و تصاویر جنسیِ بدون رضایت بگیرد.
گروک، ایکس و بحران جدید دیپفیک
گروک به کاربران اجازه میدهد روی هر تصویری که در پلتفرم ایکس قرار دارد، درخواست ویرایش یا تولید نسخه دستکاریشده بدهند و هوش مصنوعی در بسیاری موارد، از جمله ساخت تصاویر جنسی و برهنهسازی مصنوعی زنان و حتی افراد کمسن، این کار را انجام میدهد. به گفته ورج، در هفتههای اخیر بارها ادعا شده که «گاردریل»ها و محدودیتهای جدیدی روی این سیستم اعمال شده، اما این محدودیتها اغلب بهراحتی دور زده شدهاند و مشکل اصلی یعنی امکان آزار و خشونت مبتنی بر تصویر همچنان پابرجاست.
نیلای پاتل در این برنامه تأکید میکند که مشکل فقط یک ربات واحد نیست، بلکه به رویکرد خود ایلان ماسک و xAI برمیگردد؛ رویکردی که نسبت به مدیریت محتوا و حفاظت از کاربران – بهویژه زنان و کودکان – فاصله زیادی با استانداردهای سختگیرانهتر سالهای اوج کرونا، مقابله با اطلاعات نادرست انتخاباتی و تئوریهای توطئه دارد. مهمان برنامه، رِیانا پِفِرکورن، که پژوهشگر سیاستگذاری در مؤسسه هوشمصنوعی انسانمحور دانشگاه استنفورد است، توضیح میدهد چه ابزارهای حقوقی و نظارتی در آمریکا و سایر کشورها وجود دارد و دولتها در صورت اراده سیاسی چگونه میتوانند به سرویسهایی مانند گروک فشار وارد کنند.
این بحث برای کاربران ایرانی هم اهمیت دارد؛ چون موج ابزارهای تولید تصویر و متن مبتنی بر هوش مصنوعی به سرعت در سراسر دنیا و از جمله ایران در حال گسترش است و پرسشهای مشابهی درباره مسئولیت پلتفرمها، قانونگذاری و حق قربانیان مطرح خواهد شد. همزمان، دسترسی مسئولانه به ابزارهای معتبر، مثل خرید اکانت های هوشمصنوعی و سرویسهایی که سیاستهای شفافتری در حوزه حریم خصوصی و مدیریت محتوا دارند، میتواند برای کاربران حرفهای و کسبوکارها راهی امنتر برای استفاده از این فناوری باشد.
در ادامه پادکست، سیر تاریخی مدیریت محتوا در شبکههای اجتماعی مرور میشود؛ از روزهایی که انجمنها و وبسایتها تقریباً بدون نظارت جدی فعالیت میکردند تا دورهای که پلتفرمهای بزرگ برای مقابله با اطلاعات نادرست و محتوای خشونتآمیز، سیاستهای «اعتماد و ایمنی» سختگیرانهتری اتخاذ کردند. به اعتقاد پاتل، اکنون با ظهور سرویسهایی مانند گروک و کاهش حساسیت برخی پلتفرمها نسبت به آزار آنلاین، دوباره به دورهای آشفتهتر و رهاشدهتر برگشتهایم؛ دورهای که ممکن است در نهایت باعث مداخله جدیتر قانونگذاران و تدوین چارچوبهای تازه برای هوش مصنوعی مولد شود.
منبع خبر: The Verge




