هوش مصنوعی5 دقیقه مطالعه

اوپن‌اِی‌آی به‌دنبال رئیس جدید واحد «آمادگی» است

اوپن‌اِی‌آی برای رهبری تیم «آمادگی» و پایش ریسک‌های نوظهور هوش مصنوعی به‌دنبال یک مدیر ارشد جدید است. این نقش بر تهدیدهایی از امنیت سایبری تا سلامت روان متمرکز خواهد بود.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویری مفهومی از مرکز کنترل برای نظارت بر ریسک‌های هوش مصنوعی

شرکت اوپن‌اِی‌آی اعلام کرده در حال جذب یک مدیر ارشد جدید با عنوان «Head of Preparedness» است؛ سمتی که مسئولیت اصلی آن رصد و مدیریت ریسک‌های نوظهور ناشی از مدل‌های پیشرفته هوش مصنوعی، از امنیت کامپیوتر تا پیامدهای احتمالی بر سلامت روان کاربران است.

نقش جدید آمادگی در اوپن‌اِی‌آی چیست؟

بر اساس شرح شغلی منتشرشده، این مدیر باید چارچوب «آمادگی» اوپن‌اِی‌آی را اجرا و به‌روزرسانی کند؛ چارچوبی که رویکرد شرکت برای پایش توانمندی‌های مرزی مدل‌های هوش مصنوعی و ریسک‌های بالقوه آسیب شدید ناشی از آن‌ها را توضیح می‌دهد. این ریسک‌ها می‌تواند از حملات فیشینگ و سوءاستفاده از ابزارهای هک تا سناریوهای بسیار جدی‌تر در حوزه زیستی و زیرساخت‌های حیاتی را در بر بگیرد.

سم آلتمن، مدیرعامل اوپن‌اِی‌آی، در یک پست در شبکه اجتماعی X تأکید کرده که مدل‌های جدید هوش مصنوعی «در حال ایجاد چالش‌های واقعی» هستند؛ از جمله این‌که برخی مدل‌ها آن‌قدر در امنیت کامپیوتری قدرتمند شده‌اند که می‌توانند آسیب‌پذیری‌های بحرانی را شناسایی کنند، و از سوی دیگر، روی سلامت روان کاربران نیز اثر می‌گذارند. او گفته است این نقش باید کمک کند هم مدافعان سایبری از قابلیت‌های جدید بهره ببرند و هم مانع سوءاستفاده مهاجمان شود.

پس‌زمینه تیم آمادگی و اهمیت آن برای صنعت

اوپن‌اِی‌آی نخستین‌بار در سال ۲۰۲۳ ایجاد تیم آمادگی را برای مطالعه ریسک‌های «فاجعه‌بار» اعلام کرد؛ ریسک‌هایی که هم شامل تهدیدهای نزدیک مثل حملات مهندسی اجتماعی و فیشینگ می‌شود و هم سناریوهای دورتر و نظری‌تر را در بر می‌گیرد. در ادامه، رئیس قبلی این تیم، الکساندر مَدری، به نقشی متمرکز بر «استدلال» هوش مصنوعی منتقل شد و برخی دیگر از مدیران ایمنی نیز از شرکت جدا شدند یا به حوزه‌های دیگری رفتند؛ موضوعی که حالا اهمیت پر کردن این خلأ مدیریتی را بیشتر کرده است.

اوپن‌اِی‌آی به‌تازگی چارچوب آمادگی خود را نیز به‌روزرسانی کرده و در آن اشاره کرده است که ممکن است در صورت عرضه یک مدل پرریسک از سوی رقبایی که محافظت‌های مشابهی ندارند، الزامات ایمنی خود را «تنظیم» کند. این بحث نشان می‌دهد رقابت شدید در بازار مدل‌های قدرتمند هوش مصنوعی، مستقیماً بر تصمیم‌های ایمنی و زمان‌بندی انتشار این مدل‌ها اثر می‌گذارد.

پیامدها برای کاربران و بازار هوش مصنوعی

هم‌زمان با این تحولات، چت‌بات‌های مولد مانند ChatGPT با انتقادهای فزاینده‌ای در زمینه اثر بر سلامت روان مواجه شده‌اند و حتی برخی شکایت‌های حقوقی مدعی‌اند پاسخ‌های این ابزارها می‌تواند توهمات کاربران را تقویت یا انزوای اجتماعی آن‌ها را تشدید کند. اوپن‌اِی‌آی می‌گوید در تلاش است توانایی سیستم‌های خود را برای تشخیص نشانه‌های بحران عاطفی و ارجاع کاربران به کمک‌های واقعی بهبود دهد. برای کاربران ایرانی و فعالان حوزه فناوری که به‌دنبال استفاده حرفه‌ای از ابزارهای پیشرفته هستند، توجه به این بُعد ایمنی مهم است؛ به‌ویژه اگر از طریق سرویس‌هایی مانند خرید اکانت های هوش‌مصنوعی به این مدل‌ها دسترسی پیدا می‌کنند و آن‌ها را در کسب‌وکار یا تولید محتوا به‌کار می‌گیرند.

اگرچه این موقعیت شغلی مستقیماً به ایران مرتبط نیست، اما نشان می‌دهد مسیر توسعه هوش مصنوعی قدرتمند بدون تقویت بخش‌های ایمنی و آمادگی امکان‌پذیر نخواهد بود و سایر شرکت‌ها و استارتاپ‌ها نیز ناچارند الگوهای مشابهی برای ارزیابی ریسک و حاکمیت فنی در نظر بگیرند. از این منظر، تغییرات مدیریتی در اوپن‌اِی‌آی می‌تواند نشانه‌ای از بلوغ تدریجی کل صنعت هوش مصنوعی باشد.

منبع خبر: TechCrunch

منبع: TechCrunch

توییترتلگرامواتساپ

مقالات مرتبط

Plaud Note Pro؛ رکوردر هوشمند و باریک برای ضبط و خلاصه‌سازی صدا
Plaud Note Pro؛ رکوردر هوشمند و باریک برای ضبط و خلاصه‌سازی صدا

گجت جدید Plaud Note Pro یک رکوردر فوق‌باریک مبتنی بر هوش مصنوعی است که مثل کارت بانکی در کیف جا می‌شود و بدون نیاز به گوشی، صدا را ضبط و متن‌ و خلاصه تولید می‌کند. این دستگاه حرفه‌ای‌ها را هدف گرفته است.

5 دقیقه
ادغام‌های جدید اپ‌های محبوب با ChatGPT چگونه کار می‌کنند؟
ادغام‌های جدید اپ‌های محبوب با ChatGPT چگونه کار می‌کنند؟

اوپن‌ای‌آی مجموعه‌ای از ادغام‌های جدید را در اپ ChatGPT فعال کرده که با سرویس‌هایی مثل اسپاتیفای، اوبر، دوردش و ده‌ها اپ دیگر کار می‌کند. کاربران می‌توانند حساب‌های خود را وصل کنند و کارهایی مثل سفارش غذا، ساخت پلی‌لیست یا جست‌وجوی هتل را مستقیم در چت انجام دهند.

5 دقیقه
سرمایه‌گذاران: ۲۰۲۶ بالاخره سال اوج‌گیری هوش مصنوعی سازمانی است
سرمایه‌گذاران: ۲۰۲۶ بالاخره سال اوج‌گیری هوش مصنوعی سازمانی است

سه سال پس از موج اولیه چت‌جی‌پی‌تی، بسیاری از شرکت‌ها هنوز بازگشت سرمایه روشنی از پروژه‌های هوش مصنوعی ندیده‌اند. اما جمعی از سرمایه‌گذاران خطرپذیر معتقدند ۲۰۲۶ سالی است که استفاده واقعی و بودجه‌های AI در سازمان‌ها جهش می‌گیرد.

5 دقیقه
چین محدودیت‌های تازه برای چت‌بات‌های هوش مصنوعی وضع می‌کند
چین محدودیت‌های تازه برای چت‌بات‌های هوش مصنوعی وضع می‌کند

چین در حال تدوین مقررات سخت‌گیرانه‌تری برای چت‌بات‌های هوش مصنوعی است تا از تأثیرگذاری احساسی آن‌ها بر کاربران در موضوعاتی مثل خودکشی و قمار جلوگیری کند. این اقدام می‌تواند مدل‌های مکالمه‌محور فعال در بازار چین را تحت فشار جدید قرار دهد.

5 دقیقه