شرکت اوپناِیآی اعلام کرده در حال جذب یک مدیر ارشد جدید با عنوان «Head of Preparedness» است؛ سمتی که مسئولیت اصلی آن رصد و مدیریت ریسکهای نوظهور ناشی از مدلهای پیشرفته هوش مصنوعی، از امنیت کامپیوتر تا پیامدهای احتمالی بر سلامت روان کاربران است.
نقش جدید آمادگی در اوپناِیآی چیست؟
بر اساس شرح شغلی منتشرشده، این مدیر باید چارچوب «آمادگی» اوپناِیآی را اجرا و بهروزرسانی کند؛ چارچوبی که رویکرد شرکت برای پایش توانمندیهای مرزی مدلهای هوش مصنوعی و ریسکهای بالقوه آسیب شدید ناشی از آنها را توضیح میدهد. این ریسکها میتواند از حملات فیشینگ و سوءاستفاده از ابزارهای هک تا سناریوهای بسیار جدیتر در حوزه زیستی و زیرساختهای حیاتی را در بر بگیرد.
سم آلتمن، مدیرعامل اوپناِیآی، در یک پست در شبکه اجتماعی X تأکید کرده که مدلهای جدید هوش مصنوعی «در حال ایجاد چالشهای واقعی» هستند؛ از جمله اینکه برخی مدلها آنقدر در امنیت کامپیوتری قدرتمند شدهاند که میتوانند آسیبپذیریهای بحرانی را شناسایی کنند، و از سوی دیگر، روی سلامت روان کاربران نیز اثر میگذارند. او گفته است این نقش باید کمک کند هم مدافعان سایبری از قابلیتهای جدید بهره ببرند و هم مانع سوءاستفاده مهاجمان شود.
پسزمینه تیم آمادگی و اهمیت آن برای صنعت
اوپناِیآی نخستینبار در سال ۲۰۲۳ ایجاد تیم آمادگی را برای مطالعه ریسکهای «فاجعهبار» اعلام کرد؛ ریسکهایی که هم شامل تهدیدهای نزدیک مثل حملات مهندسی اجتماعی و فیشینگ میشود و هم سناریوهای دورتر و نظریتر را در بر میگیرد. در ادامه، رئیس قبلی این تیم، الکساندر مَدری، به نقشی متمرکز بر «استدلال» هوش مصنوعی منتقل شد و برخی دیگر از مدیران ایمنی نیز از شرکت جدا شدند یا به حوزههای دیگری رفتند؛ موضوعی که حالا اهمیت پر کردن این خلأ مدیریتی را بیشتر کرده است.
اوپناِیآی بهتازگی چارچوب آمادگی خود را نیز بهروزرسانی کرده و در آن اشاره کرده است که ممکن است در صورت عرضه یک مدل پرریسک از سوی رقبایی که محافظتهای مشابهی ندارند، الزامات ایمنی خود را «تنظیم» کند. این بحث نشان میدهد رقابت شدید در بازار مدلهای قدرتمند هوش مصنوعی، مستقیماً بر تصمیمهای ایمنی و زمانبندی انتشار این مدلها اثر میگذارد.
پیامدها برای کاربران و بازار هوش مصنوعی
همزمان با این تحولات، چتباتهای مولد مانند ChatGPT با انتقادهای فزایندهای در زمینه اثر بر سلامت روان مواجه شدهاند و حتی برخی شکایتهای حقوقی مدعیاند پاسخهای این ابزارها میتواند توهمات کاربران را تقویت یا انزوای اجتماعی آنها را تشدید کند. اوپناِیآی میگوید در تلاش است توانایی سیستمهای خود را برای تشخیص نشانههای بحران عاطفی و ارجاع کاربران به کمکهای واقعی بهبود دهد. برای کاربران ایرانی و فعالان حوزه فناوری که بهدنبال استفاده حرفهای از ابزارهای پیشرفته هستند، توجه به این بُعد ایمنی مهم است؛ بهویژه اگر از طریق سرویسهایی مانند خرید اکانت های هوشمصنوعی به این مدلها دسترسی پیدا میکنند و آنها را در کسبوکار یا تولید محتوا بهکار میگیرند.
اگرچه این موقعیت شغلی مستقیماً به ایران مرتبط نیست، اما نشان میدهد مسیر توسعه هوش مصنوعی قدرتمند بدون تقویت بخشهای ایمنی و آمادگی امکانپذیر نخواهد بود و سایر شرکتها و استارتاپها نیز ناچارند الگوهای مشابهی برای ارزیابی ریسک و حاکمیت فنی در نظر بگیرند. از این منظر، تغییرات مدیریتی در اوپناِیآی میتواند نشانهای از بلوغ تدریجی کل صنعت هوش مصنوعی باشد.
منبع خبر: TechCrunch




