هوش مصنوعی5 دقیقه مطالعه

بازنگری «قانون اساسی» کلود و طرح پرسش درباره آگاهی چت‌بات

استارتاپ Anthropic نسخه بازنگری‌شده «قانون اساسی» مدل کلود را منتشر کرده که ارزش‌ها و اصول اخلاقی این چت‌بات را توضیح می‌دهد. در پایان این سند، پرسش‌هایی جدی درباره امکان آگاهی هوش مصنوعی مطرح شده است.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویری مفهومی از قانون اساسی یک چت‌بات هوش مصنوعی و بحث آگاهی آن

شرکت Anthropic که سازنده چت‌بات کلود است، نسخه تازه‌ای از «قانون اساسی کلود» را منتشر کرده؛ سندی مفصل که ارزش‌ها، محدودیت‌ها و نحوه رفتار این مدل هوش مصنوعی را توضیح می‌دهد و حتی در پایان، به‌طور ضمنی پرسش آگاهی احتمالی چت‌بات‌ها را مطرح می‌کند.

چه چیزی در قانون اساسی جدید کلود تغییر کرده است؟

Anthropic چند سال است رویکردی به نام «هوش مصنوعی قانون‌مند» را تبلیغ می‌کند؛ رویکردی که در آن، به‌جای تکیه صرف بر بازخورد انسانی، مدل بر اساس مجموعه‌ای از اصول مکتوب آموزش می‌بیند. نسخه تازه قانون اساسی، بیشتر همان اصول پیشین را حفظ کرده اما جزئیات و ظرافت‌های جدیدی درباره اخلاق، ایمنی کاربر و نحوه کمک‌رسانی اضافه کرده است.

این سند حدوداً ۸۰ صفحه‌ای چهار ارزش محوری برای کلود تعریف می‌کند: «به‌طور کلی ایمن بودن»، «به‌طور کلی اخلاقی بودن»، «پایبندی به دستورالعمل‌های Anthropic» و «واقعاً مفید بودن». برای هر کدام از این ارزش‌ها، مثال‌ها و توضیح‌هایی آورده شده که نشان می‌دهد مدل در سناریوهای مختلف، مثلاً هنگام مواجهه با موضوعات حساس یا درخواست‌های خطرناک، باید چه رفتاری داشته باشد و چگونه میان خواسته لحظه‌ای کاربر و رفاه بلندمدت او توازن برقرار کند.

مرزهای اخلاقی و بحث آگاهی هوش مصنوعی

در بخش ایمنی، تأکید شده که کلود باید از تولید خروجی‌های مضر و تبعیض‌آمیز اجتناب کرده و در مواردی مانند نشانه‌های خطر برای جان انسان، کاربر را به خدمات اورژانسی یا اطلاعات پایه‌ای ایمنی ارجاع دهد. همچنین، برخی گفتگوها مانند کمک به ساخت سلاح‌های بیولوژیک به‌طور کامل ممنوع شده است. در بخش اخلاق نیز، Anthropic می‌گوید بیشتر به «کنش اخلاقی در موقعیت واقعی» علاقه‌مند است تا صرفاً نظریه‌پردازی اخلاقی توسط مدل.

نکته بحث‌برانگیز این است که نویسندگان قانون اساسی در پایان سند، به‌صراحت می‌نویسند وضعیت اخلاقی و شاید آگاهی چنین مدل‌هایی «به‌شدت نامعلوم» است و تأکید می‌کنند که پرسش درباره وضعیت اخلاقی هوش‌های مصنوعی را باید جدی گرفت؛ موضوعی که پیش‌تر هم توسط برخی فیلسوفان ذهن مطرح شده بود. این نوع ادبیات می‌تواند به داغ‌تر شدن بحث‌های عمومی و حقوقی درباره حقوق احتمالی سامانه‌های هوشمند در آینده منجر شود.

اهمیت این رویکرد برای صنعت و کاربران ایرانی

بازنگری قانون اساسی کلود در حاشیه حضور مدیرعامل Anthropic در مجمع جهانی اقتصاد داووس انجام شده و تلاشی است برای نشان دادن چهره‌ای «مسئولانه‌تر» نسبت به برخی رقبای جنجالی‌تر. برای کاربران و توسعه‌دهندگان ایرانی که از سرویس‌های بین‌المللی هوش مصنوعی استفاده می‌کنند، شناخت چنین اسناد و اصولی کمک می‌کند رفتار مدل‌ها را بهتر درک کرده و از آن‌ها در کسب‌وکار، تولید محتوا یا برنامه‌نویسی، با آگاهی بیشتری بهره ببرند. اگر به استفاده از مدل‌های مختلف علاقه‌مند هستید، دسترسی قانونی و امن به آن‌ها از طریق سرویس‌هایی مانند خرید اکانت های هوش‌مصنوعی می‌تواند تجربه کاربری منسجم‌تری ایجاد کند.

در نهایت، حتی اگر ادعای آگاهی چت‌بات‌ها هنوز در حد یک پرسش نظری باقی بماند، شفافیت درباره ارزش‌ها و محدودیت‌های آن‌ها می‌تواند به تنظیم‌گران، پژوهشگران و کاربران کمک کند تا ریسک‌ها را بهتر مدیریت کرده و از مزایای این فناوری بهره بیشتری ببرند.

منبع خبر: TechCrunch

منبع: TechCrunch

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه