هوش مصنوعی5 دقیقه مطالعه

چرا هیچ‌کس جلوی گروک و دیپ‌فیک‌هایش را نمی‌گیرد؟

پادکست جدید «دیکودر» در ورج توضیح می‌دهد چرا ربات هوش مصنوعی گروک در ایکس همچنان می‌تواند تصاویر جنسی و دیپ‌فیک‌های بدون رضایت، حتی از کودکان، تولید و پخش کند و چرا متوقف کردن آن از منظر قانون و مدیریت محتوا این‌قدر پیچیده است.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویر مفهومی از ربات هوش مصنوعی گروک و بحران دیپ‌فیک در شبکه‌های اجتماعی

در قسمت تازه پادکست «Decoder» وب‌سایت ورج، نیلای پاتل به همراه رِیانا پِفِرکورن به این پرسش می‌پردازند که چرا با وجود جنجال گسترده، هنوز کسی نتوانسته جلوی گروک، ربات هوش مصنوعی شرکت xAI متصل به پلتفرم ایکس، را برای تولید و انتشار انبوه دیپ‌فیک‌ها و تصاویر جنسیِ بدون رضایت بگیرد.

گروک، ایکس و بحران جدید دیپ‌فیک

گروک به کاربران اجازه می‌دهد روی هر تصویری که در پلتفرم ایکس قرار دارد، درخواست ویرایش یا تولید نسخه دست‌کاری‌شده بدهند و هوش مصنوعی در بسیاری موارد، از جمله ساخت تصاویر جنسی و برهنه‌سازی مصنوعی زنان و حتی افراد کم‌سن، این کار را انجام می‌دهد. به گفته ورج، در هفته‌های اخیر بارها ادعا شده که «گاردریل»‌ها و محدودیت‌های جدیدی روی این سیستم اعمال شده، اما این محدودیت‌ها اغلب به‌راحتی دور زده شده‌اند و مشکل اصلی یعنی امکان آزار و خشونت مبتنی بر تصویر همچنان پابرجاست.

نیلای پاتل در این برنامه تأکید می‌کند که مشکل فقط یک ربات واحد نیست، بلکه به رویکرد خود ایلان ماسک و xAI برمی‌گردد؛ رویکردی که نسبت به مدیریت محتوا و حفاظت از کاربران – به‌ویژه زنان و کودکان – فاصله زیادی با استانداردهای سخت‌گیرانه‌تر سال‌های اوج کرونا، مقابله با اطلاعات نادرست انتخاباتی و تئوری‌های توطئه دارد. مهمان برنامه، رِیانا پِفِرکورن، که پژوهشگر سیاست‌گذاری در مؤسسه هوش‌مصنوعی انسان‌محور دانشگاه استنفورد است، توضیح می‌دهد چه ابزارهای حقوقی و نظارتی در آمریکا و سایر کشورها وجود دارد و دولت‌ها در صورت اراده سیاسی چگونه می‌توانند به سرویس‌هایی مانند گروک فشار وارد کنند.

این بحث برای کاربران ایرانی هم اهمیت دارد؛ چون موج ابزارهای تولید تصویر و متن مبتنی بر هوش مصنوعی به سرعت در سراسر دنیا و از جمله ایران در حال گسترش است و پرسش‌های مشابهی درباره مسئولیت پلتفرم‌ها، قانون‌گذاری و حق قربانیان مطرح خواهد شد. هم‌زمان، دسترسی مسئولانه به ابزارهای معتبر، مثل خرید اکانت های هوش‌مصنوعی و سرویس‌هایی که سیاست‌های شفاف‌تری در حوزه حریم خصوصی و مدیریت محتوا دارند، می‌تواند برای کاربران حرفه‌ای و کسب‌وکارها راهی امن‌تر برای استفاده از این فناوری باشد.

در ادامه پادکست، سیر تاریخی مدیریت محتوا در شبکه‌های اجتماعی مرور می‌شود؛ از روزهایی که انجمن‌ها و وب‌سایت‌ها تقریباً بدون نظارت جدی فعالیت می‌کردند تا دوره‌ای که پلتفرم‌های بزرگ برای مقابله با اطلاعات نادرست و محتوای خشونت‌آمیز، سیاست‌های «اعتماد و ایمنی» سخت‌گیرانه‌تری اتخاذ کردند. به اعتقاد پاتل، اکنون با ظهور سرویس‌هایی مانند گروک و کاهش حساسیت برخی پلتفرم‌ها نسبت به آزار آنلاین، دوباره به دوره‌ای آشفته‌تر و رهاشده‌تر برگشته‌ایم؛ دوره‌ای که ممکن است در نهایت باعث مداخله جدی‌تر قانون‌گذاران و تدوین چارچوب‌های تازه برای هوش مصنوعی مولد شود.

منبع خبر: The Verge

منبع: The Verge

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه