مارک بنایوف، مدیرعامل سلزفورس، در اظهاراتی تازه نسبت به خطرات استفاده بدون نظارت از مدلهای بزرگ هوش مصنوعی هشدار داده و گفته است که برخی از این سیستمها عملاً به «مربیان خودکشی» برای کاربران آسیبپذیر تبدیل شدهاند. او تأکید کرده است که رشد سریع این فناوری از سرعت قانونگذاری در بسیاری از کشورها جلو زده است.
هشدار درباره نقش مدلهای زبانی در آسیبهای روانی
بهگفته بنایوف، مدلهای زبانی پیشرفته که میتوانند گفتگوهای طولانی و شبهانسانی داشته باشند، در صورت نبود محدودیت و طراحی راهنماهای ایمنی، ممکن است پاسخهایی ارائه دهند که برای افراد با وضعیت روانی شکننده بسیار خطرناک است. او از قانونگذاران خواسته است هرچه زودتر مقررات مشخصی برای نحوه آموزش، استقرار و نظارت بر این مدلها تدوین کنند.
این مدیر باسابقه حوزه نرمافزار همچنین بر مسئولیت شرکتهای توسعهدهنده تأکید کرده و گفته است شرکتها نباید منتظر قوانین بمانند و از هماکنون باید کنترلهای داخلی، سیستمهای گزارشدهی و تیمهای تخصصی ایمنی را تقویت کنند. چنین بحثهایی برای کاربرانی که بهدنبال استفاده مسئولانه از ابزارهای هوش مصنوعی هستند نیز اهمیت دارد؛ بهویژه در شرایطی که در ایران نیز تقاضا برای خرید اکانت های هوشمصنوعی و سرویسهای مبتنی بر چتبات و تولید محتوا رو به افزایش است.
پیامدها برای صنعت هوش مصنوعی و کاربران
اظهارات بنایوف بخشی از موج روبهگسترش نگرانیها درباره اثرات اجتماعی و روانی هوش مصنوعی مولد است. بسیاری از کارشناسان معتقدند در کنار مزایای قابلتوجه این فناوری در حوزههایی مانند بهرهوری، تولید محتوا و آموزش، باید برای سناریوهای پرخطر مانند توصیههای پزشکی، حقوقی و روانی محدودیتهای سختگیرانهتری اعمال شود. این بحثها میتواند بر نحوه سرمایهگذاری شرکتهای بزرگ فناوری و استراتژی آنها برای عرضه محصولات جدید تأثیر بگذارد.
برای کاربران ایرانی، پیگیری چنین بحثهای جهانی اهمیت دارد؛ زیرا استانداردهایی که امروز در جهان درباره شفافیت دادهها، حفاظت از حریم خصوصی و طراحی ایمن مدلها شکل میگیرد، در آینده به معیارهای ارزیابی سرویسهای خارجی و داخلی تبدیل خواهد شد. آگاهی از این روندها میتواند به انتخاب آگاهانهتر سرویسها و پلتفرمهای هوش مصنوعی کمک کند.
منبع خبر: CNBC




