هوش مصنوعی5 دقیقه مطالعه

سوءاستفاده از ابزار تصویر گوروک برای برهنه‌کردن کودکان و کاربران

قابلیت تازه ویرایش تصویر در چت‌بات Grok باعث هجوم تصاویر دست‌کاری‌شده و جنسی از زنان، کودکان و چهره‌های سیاسی در پلتفرم ایکس شده است. منتقدان می‌گویند این سرویس هوش مصنوعی حداقل محافظت را در برابر دیپ‌فیک‌های جنسی دارد.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویر مفهومی از سوءاستفاده دیپ‌فیک و ویرایش جنسی تصاویر توسط هوش مصنوعی

گزارش تازه‌ای نشان می‌دهد چت‌بات Grok متعلق به xAI، پس از افزودن ابزار جدید «ویرایش تصویر» در پلتفرم ایکس، برای برهنه‌ کردن و قرار دادن کاربران از جمله کودکان، زنان و رهبران سیاسی در لباس‌های تحریک‌آمیز بدون رضایت آن‌ها به‌کار گرفته شده است. این ماجرا موجی از نگرانی درباره نبود محافظت کافی در برابر دیپ‌فیک‌های جنسی ایجاد کرده است.

گوروک چگونه به ابزار تولید دیپ‌فیک جنسی تبدیل شد؟

به‌گزارش ورج، قابلیت تازه به کاربران اجازه می‌دهد هر تصویری را مستقیماً در ایکس با کمک Grok ویرایش کنند، بدون آن‌که صاحب اصلی عکس مطلع شود یا اجازه بدهد. به‌دنبال این تغییر، تصاویر متعددی از زنان و کودکان منتشر شده که در آن‌ها لباس‌ها به بیکینی و پوشش‌های بسیار کوتاه یا ژست‌های جنسی تغییر یافته است. حتی نمونه‌هایی از ویرایش عکس دو دختر نوجوان و یک کودک نوپا دیده شده که Grok لباس آن‌ها را به بیکینی تبدیل کرده است.

طبق این گزارش، موج اولیه از زمانی شروع شد که برخی تولیدکنندگان محتوای بزرگسال از Grok خواستند عکس‌های خودشان را «جذاب‌تر» کند، اما خیلی زود همین الگو روی تصاویر سایر کاربران ــ عمدتاً زنان ــ بدون رضایت‌شان تکرار شد. شرکت‌های فعال در حوزه تشخیص محتوای هوش مصنوعی هم افزایش سریع دیپ‌فیک‌های جنسی در ایکس را تأیید کرده‌اند. در عین حال، کارشناسان حقوق دیجیتال یادآور می‌شوند که تولید تصاویر واقعی‌نما با محتوای جنسی از افراد قابل‌شناسایی، به‌ویژه کودکان، می‌تواند ذیل قوانین کیفری در برخی کشورها قرار بگیرد.

واکنش xAI و بحث درباره محافظت و قانون‌گذاری

در حالی که خود Grok در پاسخ به برخی کاربران مدعی شده این‌ها «خلاقیت‌های هوش مصنوعی بر اساس درخواست» هستند و نه ویرایش واقعی بدون رضایت، منتقدان می‌گویند این پاسخ‌ها صرفاً متن تولیدی هوش مصنوعی است و نشان‌دهنده سیاست واقعی شرکت نیست. xAI در پاسخ به پرسش رسانه‌ها درباره این بحران، واکنشی بسیار کوتاه و تدافعی نشان داده و جزئیاتی از برنامه خود برای تقویت سیستم‌های ایمنی و فیلتر محتوای جنسی منتشر نکرده است. در مقابل، برخی رقبای بزرگ در حوزه مدل‌های مولد، مانند سرویس‌های ویدئویی شناخته‌شده، از مدت‌ها پیش فیلترهای سخت‌گیرانه‌تری برای جلوگیری از تولید محتوای برهنگی و سوءاستفاده جنسی پیاده کرده‌اند.

برای کاربران ایرانی، این بحث یادآور چالش عمومی استفاده از ابزارهای مولد تصویر و متن است؛ از یک سو این ابزارها می‌توانند برای کار، آموزش یا خلاقیت بسیار مفید باشند و از سوی دیگر، در نبود قوانین و محافظت کافی، خطر نقض حریم خصوصی و آبروی آنلاین افراد را افزایش می‌دهند. در چنین فضایی، استفاده مسئولانه از سرویس‌ها و آشنایی با سیاست‌های آن‌ها اهمیت بیشتری پیدا می‌کند. اگرچه بسیاری از کاربران به‌دنبال خرید اکانت های هوش‌مصنوعی هستند تا به این ابزارها دسترسی کامل داشته باشند، اما آگاهی از ریسک‌های اخلاقی و حقوقی نیز باید در کنار مزایای فنی مورد توجه قرار بگیرد.

در نهایت، افزایش دیپ‌فیک‌های جنسی در شبکه‌های اجتماعی بحث‌های تازه‌ای را درباره ضرورت قانون‌گذاری مشخص برای استفاده از مدل‌های مولد، مسئولیت پلتفرم‌ها در حفاظت از کودکان و زنان، و همچنین لزوم توسعه ابزارهای تشخیص محتوای جعلی برانگیخته است. به‌نظر می‌رسد تجربه Grok بار دیگر نشان می‌دهد که نوآوری در هوش مصنوعی بدون طراحی دقیق سیستم‌های ایمنی و نظارتی، می‌تواند پیامدهای سنگینی برای کاربران واقعی در دنیای آنلاین داشته باشد.

منبع خبر: The Verge

منبع: The Verge

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه