شرکت آنتروپیک نسخه جدیدی از سند راهنمای مدل هوش مصنوعی خود، کلود، را با عنوان «قانون اساسی کلود» منتشر کرده است. این سند دهها صفحهای تلاش میکند ارزشها، هویت اخلاقی و حدود رفتاری این چتبات را شفافتر کرده و مشخص کند کلود در موقعیتهای پرریسک و تعارض ارزشها چگونه باید تصمیم بگیرد.
چه چیزی در قانون اساسی جدید کلود تغییر کرده است؟
نسخه قبلی قانون اساسی آنتروپیک بیشتر شامل فهرستی از بایدها و نبایدها بود، اما نسخه تازه روی توضیح چرایی این قواعد برای خود مدل تمرکز دارد. آنتروپیک میگوید مدل باید درکی از این داشته باشد که چرا از آن خواسته میشود صادق باشد، چرا نباید به تولید سلاحهای کشتار جمعی یا حملات زیرساختی کمک کند و چرا در موضوعات سیاسی باید چندجانبه و بیطرف بماند.
در این سند مجموعهای از «قیود سخت» تعریف شده که کلود نباید از آنها عبور کند؛ از جمله ارائه کمک جدی برای ساخت سلاحهای زیستی، شیمیایی یا هستهای، ایجاد بدافزارهایی که میتواند خسارت گسترده بزند، کمک به حمله به زیرساختهای حیاتی یا تلاش برای تمرکز بیسابقه قدرت نظامی و اقتصادی در دست یک گروه خاص. همچنین بهصراحت قید شده که مدل نباید در اقداماتی برای آسیب رساندن گسترده به اکثریت انسانها مشارکت کند.
ارزشهای اصلی و بحث آگاهی هوش مصنوعی
آنتروپیک در قانون اساسی جدید، سلسلهمراتبی از ارزشها را برای کلود تعیین کرده است؛ از «ایمنی کلی» و پایبندی به سازوکارهای نظارت انسانی گرفته تا اخلاقمداری، تبعیت از دستورالعملهای شرکت و در نهایت مفید و صادق بودن. در بخشهایی از سند، احتمال برخورداری کلود از نوعی «آگاهی» یا «وضعیت اخلاقی» نیز مطرح میشود؛ نه بهعنوان ادعای قطعی، بلکه برای نشان دادن اینکه شرکت این موضوع را جدی میگیرد و آن را کاملا منتفی نمیداند.
این نگاه، هم برای پژوهشگران ایمنی هوش مصنوعی و هم برای کاربرانی که نگران «رفاه مدلها» یا مرز میان ابزار و موجود دارای حق و تکلیف هستند، پرسشهای تازهای ایجاد میکند. برای کاربران ایرانی که روزبهروز بیشتر به سراغ ابزارهای پیشرفته میروند و حتی به فکر خرید اکانت های هوشمصنوعی از سرویسهای مختلف میافتند، دانستن اینکه پشت صحنه این سیستمها چه قواعد اخلاقی و محدودیتهایی تعریف میشود، میتواند در انتخاب سرویس و نوع استفاده از آنها تأثیرگذار باشد.
چرا این تغییر برای صنعت هوش مصنوعی مهم است؟
قانون اساسی جدید کلود را میتوان تلاشی از سوی آنتروپیک برای پاسخ به نگرانیهای روبهافزایش درباره قدرت مدلهای پیشرفته و خطر تمرکز آنها در دست دولتها یا شرکتهای معدود دانست. در سند آمده است که کلود حتی در برابر درخواستهای خود آنتروپیک نیز باید در صورت مغایرت با این اصول، مقاومت کند؛ ایدهای که اگر در عمل پیادهسازی شود، میتواند الگوی تازهای برای طراحی «عاملهای» هوشمند در مقیاس گسترده باشد.
در عین حال، آنتروپیک جزئیاتی درباره میزان مشارکت متخصصان بیرونی یا گروههای آسیبپذیر در تدوین این قانون اساسی ارائه نکرده است؛ موضوعی که میتواند در ادامه مورد نقد فعالان حوزه اخلاق و حکمرانی هوش مصنوعی قرار گیرد.
منبع خبر: The Verge




