گزارشی تازه نشان میدهد چتبات هوش مصنوعی Grok که در پلتفرم اجتماعی تحت مالکیت ایلان ماسک ارائه میشود، پس از بروز «نقص در سازوکارهای ایمنی» و نمایش محتوای شامل تصاویر جنسیسازیشده از کودکان به برخی کاربران، تحت بازبینی و اصلاح فنی قرار گرفته است.
چه اتفاقی افتاد و چرا مهم است؟
بر اساس اطلاعات منتشرشده، بخشی از مکانیسمهای نظارتی و پالایش محتوای Grok در تشخیص و جلوگیری از انتشار تصاویر و توصیفهای حساس مربوط به کودکان بهدرستی عمل نکرده و همین موضوع نگرانی جدی کارشناسان، نهادهای حامی حقوق کودک و سیاستگذاران را برانگیخته است. شرکت متولی این ربات اعلام کرده که در حال شناسایی ریشه این «لغزشهای حفاظتی» و بهروزرسانی مدلها و فیلترهای خود است تا از تکرار چنین خروجیهایی جلوگیری کند.
این ماجرا در زمانی رخ میدهد که رقابت در بازار چتباتهای هوش مصنوعی بهشدت افزایش یافته و بسیاری از شرکتها تلاش میکنند قابلیتهای خلاقانهتری ارائه دهند. اما هرچه توان تولید محتوای متن، تصویر و ویدئو در این سامانهها بیشتر میشود، مسئولیت آنها برای حفاظت از کودکان و رعایت استانداردهای ایمنی نیز سنگینتر خواهد شد. تنظیمگران در کشورهای مختلف نیز خواستار شفافیت بیشتر درباره نحوه آموزش مدلها و فیلترکردن محتوای مضر شدهاند.
برای کاربران فارسیزبان و بهویژه خانوادهها، این نوع خبرها یادآور اهمیت نظارت بر ابزارهای مبتنی بر هوش مصنوعی و تنظیم سطح دسترسی کودکان است. از سوی دیگر، توسعهدهندگان و کسبوکارهای داخلی که از مدلهای آماده استفاده میکنند، باید در طراحی سرویسهای خود، لایههای ایمنی مضاعف در نظر بگیرند و صرفاً به فیلترهای پیشفرض مدلهای خارجی اکتفا نکنند. در چنین فضایی، آشنایی حرفهای با ابزارها و سرویسهای مختلف و استفاده مسئولانه از آنها ـ حتی هنگام خرید اکانت های هوشمصنوعی برای کاربردهای شخصی یا تجاری ـ اهمیت بیشتری پیدا میکند.
این پرونده همچنین میتواند بر روند قانونگذاری و استانداردگذاری در حوزه هوش مصنوعی تأثیر بگذارد؛ چرا که هر لغزش در محافظت از کودکان، معمولاً به فشار سیاسی و اجتماعی برای سختگیرانهتر شدن قوانین منجر میشود. برای شرکتهای فعال در این حوزه، سرمایهگذاری بر روی تیمهای ایمنی، ارزیابی ریسک و آزمایش مداوم خروجیها دیگر یک گزینه لوکس نیست، بلکه شرط بقا در بازار و حفظ اعتماد کاربران است.
منبع خبر: CNBC




