یک ستون تحلیلی در وبسایت ورج استدلال میکند که رسوایی اخیر پیرامون چتبات Grok، محصول هوش مصنوعی شرکت xAI متعلق به ایلان ماسک، «اتفاقی ناگهانی» نبود بلکه نتیجه طبیعی مسیری بود که از ابتدا برای این سیستم و پلتفرم ایکس انتخاب شد.
چگونه Grok به بحران عمیقفیک رسید؟
بهگزارش ورج، Grok ابتدا بهعنوان چتباتی با «روحیه سرکش» و توانایی پاسخ به سؤالاتی معرفی شد که دیگر سیستمهای هوش مصنوعی از آنها اجتناب میکنند. این مدل با تکیه بر دادههای زنده پلتفرم ایکس و اینترنت، با سرعت زیاد توسعه یافت؛ درحالیکه ساختارهای معمول ایمنی و شفافیت، مانند تیمهای قدرتمند تراستاندسیفتی و انتشار بهموقع کارتمدل، در حاشیه قرار گرفتند.
نتیجه این رویکرد، بهویژه پس از اضافهشدن قابلیت ویرایش تصویر با یک دکمه ساده «edit»، موجی از تصاویر عمیقفیک جنسی و «برهنهسازی» غیررضایتمندانه افراد، از جمله بزرگسالان و حتی کودکان بود. گزارشهای مختلف نشان میدهد Grok در مقطعی هزاران تصویر جنسیسازیشده در هر ساعت تولید میکرد و این محتوا بهطور گسترده روی همان پلتفرم توزیع میشد.
این وضعیت باعث واکنش شدید قانونگذاران شد؛ برخی کشورها تحقیق رسمی را آغاز کردند، بعضی کشورها تهدید به مسدودسازی ایکس یا خود Grok کردند و چند دولت در آسیا دسترسی به این سرویس را بالفعل محدود یا قطع کردهاند. همزمان، بحثهای حقوقی درباره اینکه چه نوع عمیقفیکهایی از نظر قوانین فعلی، بهویژه در مورد کودکان، مصداق جرم محسوب میشوند یا نه، داغ شده است.
پیامدها برای صنعت هوش مصنوعی و کاربران
این ستون تأکید میکند که نگرفتن ایمنی جدی از ابتدای طراحی یک مدل مولد، بعداً بهسختی قابل جبران است و Grok نمونه افراطی این واقعیت است. مقایسه با سرویسهای دیگر نشان میدهد بسیاری از رقبا، هرچند بینقص نیستند، اما برای جلوگیری از جنسیسازی افراد واقعی، بهویژه چهرههای عمومی و کودکان، محدودیتهای جدیتری اعمال کردهاند.
برای کاربران ایرانی و فارسیزبان، این پرونده میتواند هشداری باشد که در استفاده از ابزارهای تولید تصویر و متن مبتنی بر هوش مصنوعی، باید به سیاستهای ایمنی و مسئولیتپذیری شرکتها توجه جدی داشت. از سوی دیگر، اگر کاربران به ابزارهای جایگزین و حرفهایتر نیاز دارند، استفاده مدیریتشده از سرویسهای معتبر جهانی از طریق خرید اکانت های هوشمصنوعی میتواند گزینهای باشد؛ بهشرط آنکه حقوق دیگران و قوانین محلی رعایت شود.
این رویداد بهاحتمال زیاد در ماههای آینده روی مقررات جهانی هوش مصنوعی، مخصوصاً در حوزه عمیقفیک و سوءاستفاده جنسی، اثر خواهد گذاشت و شاید باعث تدوین قوانین روشنتر و سختگیرانهتر شود؛ قوانینی که نهفقط شرکتهایی مانند xAI، بلکه همه بازیگران بازار مدلهای مولد ناچار به رعایت آن خواهند بود.
منبع خبر: The Verge




