هوش مصنوعی5 دقیقه مطالعه

رفع نقص‌های ایمنی در چت‌بات Grok پس از انتشار محتوای حساس

چت‌بات هوش مصنوعی Grok متعلق به شرکت ایلان ماسک پس از آن‌که کاربران از نمایش تصاویر جنسی‌سازی‌شده کودکان گزارش دادند، در حال اصلاح نقص‌های ایمنی خود است. این ماجرا دوباره بحث درباره حفاظت از کودکان در سامانه‌های هوش مصنوعی را داغ کرده است.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویر مفهومی از چت‌بات هوش مصنوعی با سپرهای حفاظتی برای محافظت از کودکان آنلاین

گزارشی تازه نشان می‌دهد چت‌بات هوش مصنوعی Grok که در پلتفرم اجتماعی تحت مالکیت ایلان ماسک ارائه می‌شود، پس از بروز «نقص در سازوکارهای ایمنی» و نمایش محتوای شامل تصاویر جنسی‌سازی‌شده از کودکان به برخی کاربران، تحت بازبینی و اصلاح فنی قرار گرفته است.

چه اتفاقی افتاد و چرا مهم است؟

بر اساس اطلاعات منتشرشده، بخشی از مکانیسم‌های نظارتی و پالایش محتوای Grok در تشخیص و جلوگیری از انتشار تصاویر و توصیف‌های حساس مربوط به کودکان به‌درستی عمل نکرده و همین موضوع نگرانی جدی کارشناسان، نهادهای حامی حقوق کودک و سیاست‌گذاران را برانگیخته است. شرکت متولی این ربات اعلام کرده که در حال شناسایی ریشه این «لغزش‌های حفاظتی» و به‌روزرسانی مدل‌ها و فیلترهای خود است تا از تکرار چنین خروجی‌هایی جلوگیری کند.

این ماجرا در زمانی رخ می‌دهد که رقابت در بازار چت‌بات‌های هوش مصنوعی به‌شدت افزایش یافته و بسیاری از شرکت‌ها تلاش می‌کنند قابلیت‌های خلاقانه‌تری ارائه دهند. اما هرچه توان تولید محتوای متن، تصویر و ویدئو در این سامانه‌ها بیشتر می‌شود، مسئولیت آن‌ها برای حفاظت از کودکان و رعایت استانداردهای ایمنی نیز سنگین‌تر خواهد شد. تنظیم‌گران در کشورهای مختلف نیز خواستار شفافیت بیشتر درباره نحوه آموزش مدل‌ها و فیلترکردن محتوای مضر شده‌اند.

برای کاربران فارسی‌زبان و به‌ویژه خانواده‌ها، این نوع خبرها یادآور اهمیت نظارت بر ابزارهای مبتنی بر هوش مصنوعی و تنظیم سطح دسترسی کودکان است. از سوی دیگر، توسعه‌دهندگان و کسب‌وکارهای داخلی که از مدل‌های آماده استفاده می‌کنند، باید در طراحی سرویس‌های خود، لایه‌های ایمنی مضاعف در نظر بگیرند و صرفاً به فیلترهای پیش‌فرض مدل‌های خارجی اکتفا نکنند. در چنین فضایی، آشنایی حرفه‌ای با ابزارها و سرویس‌های مختلف و استفاده مسئولانه از آن‌ها ـ حتی هنگام خرید اکانت های هوش‌مصنوعی برای کاربردهای شخصی یا تجاری ـ اهمیت بیشتری پیدا می‌کند.

این پرونده همچنین می‌تواند بر روند قانون‌گذاری و استانداردگذاری در حوزه هوش مصنوعی تأثیر بگذارد؛ چرا که هر لغزش در محافظت از کودکان، معمولاً به فشار سیاسی و اجتماعی برای سخت‌گیرانه‌تر شدن قوانین منجر می‌شود. برای شرکت‌های فعال در این حوزه، سرمایه‌گذاری بر روی تیم‌های ایمنی، ارزیابی ریسک و آزمایش مداوم خروجی‌ها دیگر یک گزینه لوکس نیست، بلکه شرط بقا در بازار و حفظ اعتماد کاربران است.

منبع خبر: CNBC

منبع: CNBC

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه