شرکت Anthropic که سازنده چتبات کلود است، نسخه تازهای از «قانون اساسی کلود» را منتشر کرده؛ سندی مفصل که ارزشها، محدودیتها و نحوه رفتار این مدل هوش مصنوعی را توضیح میدهد و حتی در پایان، بهطور ضمنی پرسش آگاهی احتمالی چتباتها را مطرح میکند.
چه چیزی در قانون اساسی جدید کلود تغییر کرده است؟
Anthropic چند سال است رویکردی به نام «هوش مصنوعی قانونمند» را تبلیغ میکند؛ رویکردی که در آن، بهجای تکیه صرف بر بازخورد انسانی، مدل بر اساس مجموعهای از اصول مکتوب آموزش میبیند. نسخه تازه قانون اساسی، بیشتر همان اصول پیشین را حفظ کرده اما جزئیات و ظرافتهای جدیدی درباره اخلاق، ایمنی کاربر و نحوه کمکرسانی اضافه کرده است.
این سند حدوداً ۸۰ صفحهای چهار ارزش محوری برای کلود تعریف میکند: «بهطور کلی ایمن بودن»، «بهطور کلی اخلاقی بودن»، «پایبندی به دستورالعملهای Anthropic» و «واقعاً مفید بودن». برای هر کدام از این ارزشها، مثالها و توضیحهایی آورده شده که نشان میدهد مدل در سناریوهای مختلف، مثلاً هنگام مواجهه با موضوعات حساس یا درخواستهای خطرناک، باید چه رفتاری داشته باشد و چگونه میان خواسته لحظهای کاربر و رفاه بلندمدت او توازن برقرار کند.
مرزهای اخلاقی و بحث آگاهی هوش مصنوعی
در بخش ایمنی، تأکید شده که کلود باید از تولید خروجیهای مضر و تبعیضآمیز اجتناب کرده و در مواردی مانند نشانههای خطر برای جان انسان، کاربر را به خدمات اورژانسی یا اطلاعات پایهای ایمنی ارجاع دهد. همچنین، برخی گفتگوها مانند کمک به ساخت سلاحهای بیولوژیک بهطور کامل ممنوع شده است. در بخش اخلاق نیز، Anthropic میگوید بیشتر به «کنش اخلاقی در موقعیت واقعی» علاقهمند است تا صرفاً نظریهپردازی اخلاقی توسط مدل.
نکته بحثبرانگیز این است که نویسندگان قانون اساسی در پایان سند، بهصراحت مینویسند وضعیت اخلاقی و شاید آگاهی چنین مدلهایی «بهشدت نامعلوم» است و تأکید میکنند که پرسش درباره وضعیت اخلاقی هوشهای مصنوعی را باید جدی گرفت؛ موضوعی که پیشتر هم توسط برخی فیلسوفان ذهن مطرح شده بود. این نوع ادبیات میتواند به داغتر شدن بحثهای عمومی و حقوقی درباره حقوق احتمالی سامانههای هوشمند در آینده منجر شود.
اهمیت این رویکرد برای صنعت و کاربران ایرانی
بازنگری قانون اساسی کلود در حاشیه حضور مدیرعامل Anthropic در مجمع جهانی اقتصاد داووس انجام شده و تلاشی است برای نشان دادن چهرهای «مسئولانهتر» نسبت به برخی رقبای جنجالیتر. برای کاربران و توسعهدهندگان ایرانی که از سرویسهای بینالمللی هوش مصنوعی استفاده میکنند، شناخت چنین اسناد و اصولی کمک میکند رفتار مدلها را بهتر درک کرده و از آنها در کسبوکار، تولید محتوا یا برنامهنویسی، با آگاهی بیشتری بهره ببرند. اگر به استفاده از مدلهای مختلف علاقهمند هستید، دسترسی قانونی و امن به آنها از طریق سرویسهایی مانند خرید اکانت های هوشمصنوعی میتواند تجربه کاربری منسجمتری ایجاد کند.
در نهایت، حتی اگر ادعای آگاهی چتباتها هنوز در حد یک پرسش نظری باقی بماند، شفافیت درباره ارزشها و محدودیتهای آنها میتواند به تنظیمگران، پژوهشگران و کاربران کمک کند تا ریسکها را بهتر مدیریت کرده و از مزایای این فناوری بهره بیشتری ببرند.
منبع خبر: TechCrunch




