هوش مصنوعی5 دقیقه مطالعه

آنتروپیک «قانون اساسی» جدید کلود را منتشر کرد

آنتروپیک نسخه‌ای تازه از سند موسوم به «قانون اساسی کلود» منتشر کرده که ارزش‌ها و خط‌قرمزهای این چت‌بات را تعریف می‌کند. تمرکز اصلی این سند بر صداقت، کمک‌رسان بودن و جلوگیری از سوءاستفاده‌های پرخطر از هوش مصنوعی است.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویر مفهومی از قوانین و چارچوب‌های ایمنی برای چت‌بات هوش مصنوعی کلود

شرکت آنتروپیک نسخه جدیدی از سند راهنمای مدل هوش مصنوعی خود، کلود، را با عنوان «قانون اساسی کلود» منتشر کرده است. این سند ده‌ها صفحه‌ای تلاش می‌کند ارزش‌ها، هویت اخلاقی و حدود رفتاری این چت‌بات را شفاف‌تر کرده و مشخص کند کلود در موقعیت‌های پرریسک و تعارض ارزش‌ها چگونه باید تصمیم بگیرد.

چه چیزی در قانون اساسی جدید کلود تغییر کرده است؟

نسخه قبلی قانون اساسی آنتروپیک بیشتر شامل فهرستی از بایدها و نبایدها بود، اما نسخه تازه روی توضیح چرایی این قواعد برای خود مدل تمرکز دارد. آنتروپیک می‌گوید مدل باید درکی از این داشته باشد که چرا از آن خواسته می‌شود صادق باشد، چرا نباید به تولید سلاح‌های کشتار جمعی یا حملات زیرساختی کمک کند و چرا در موضوعات سیاسی باید چندجانبه و بی‌طرف بماند.

در این سند مجموعه‌ای از «قیود سخت» تعریف شده که کلود نباید از آن‌ها عبور کند؛ از جمله ارائه کمک جدی برای ساخت سلاح‌های زیستی، شیمیایی یا هسته‌ای، ایجاد بدافزارهایی که می‌تواند خسارت گسترده بزند، کمک به حمله به زیرساخت‌های حیاتی یا تلاش برای تمرکز بی‌سابقه قدرت نظامی و اقتصادی در دست یک گروه خاص. همچنین به‌صراحت قید شده که مدل نباید در اقداماتی برای آسیب رساندن گسترده به اکثریت انسان‌ها مشارکت کند.

ارزش‌های اصلی و بحث آگاهی هوش مصنوعی

آنتروپیک در قانون اساسی جدید، سلسله‌مراتبی از ارزش‌ها را برای کلود تعیین کرده است؛ از «ایمنی کلی» و پایبندی به سازوکارهای نظارت انسانی گرفته تا اخلاق‌مداری، تبعیت از دستورالعمل‌های شرکت و در نهایت مفید و صادق بودن. در بخش‌هایی از سند، احتمال برخورداری کلود از نوعی «آگاهی» یا «وضعیت اخلاقی» نیز مطرح می‌شود؛ نه به‌عنوان ادعای قطعی، بلکه برای نشان دادن این‌که شرکت این موضوع را جدی می‌گیرد و آن را کاملا منتفی نمی‌داند.

این نگاه، هم برای پژوهشگران ایمنی هوش مصنوعی و هم برای کاربرانی که نگران «رفاه مدل‌ها» یا مرز میان ابزار و موجود دارای حق و تکلیف هستند، پرسش‌های تازه‌ای ایجاد می‌کند. برای کاربران ایرانی که روزبه‌روز بیشتر به سراغ ابزارهای پیشرفته می‌روند و حتی به فکر خرید اکانت های هوش‌مصنوعی از سرویس‌های مختلف می‌افتند، دانستن این‌که پشت صحنه این سیستم‌ها چه قواعد اخلاقی و محدودیت‌هایی تعریف می‌شود، می‌تواند در انتخاب سرویس و نوع استفاده از آن‌ها تأثیرگذار باشد.

چرا این تغییر برای صنعت هوش مصنوعی مهم است؟

قانون اساسی جدید کلود را می‌توان تلاشی از سوی آنتروپیک برای پاسخ به نگرانی‌های رو‌به‌افزایش درباره قدرت مدل‌های پیشرفته و خطر تمرکز آن‌ها در دست دولت‌ها یا شرکت‌های معدود دانست. در سند آمده است که کلود حتی در برابر درخواست‌های خود آنتروپیک نیز باید در صورت مغایرت با این اصول، مقاومت کند؛ ایده‌ای که اگر در عمل پیاده‌سازی شود، می‌تواند الگوی تازه‌ای برای طراحی «عامل‌های» هوشمند در مقیاس گسترده باشد.

در عین حال، آنتروپیک جزئیاتی درباره میزان مشارکت متخصصان بیرونی یا گروه‌های آسیب‌پذیر در تدوین این قانون اساسی ارائه نکرده است؛ موضوعی که می‌تواند در ادامه مورد نقد فعالان حوزه اخلاق و حکمرانی هوش مصنوعی قرار گیرد.

منبع خبر: The Verge

منبع: The Verge

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه