هوش مصنوعی5 دقیقه مطالعه

گروک درباره تیراندازی باندای اطلاعات نادرست پخش می‌کند

چت‌بات Grok متعلق به xAI در پاسخ به پرسش‌ها درباره تیراندازی مرگبار ساحل باندای استرالیا، چندین بار ویدئوها و هویت قهرمان ماجرا را اشتباه معرفی کرده است. این خطاها دوباره بحث درباره قابلیت اتکای هوش مصنوعی برای خبر و راستی‌آزمایی را داغ کرده است.

تصویر مفهومی خطای چت‌بات هوش مصنوعی در نمایش اخبار تیراندازی باندای

چت‌بات Grok از شرکت xAI در جریان پوشش تیراندازی مرگبار اخیر در ساحل باندای استرالیا، چندین بار اطلاعات نادرست تولید کرده و ویدئوها و هویت فردی را که مهاجم را خلع سلاح کرده است، اشتباه معرفی کرده؛ موضوعی که بار دیگر نگرانی‌ها درباره اتکاپذیری سامانه‌های هوش مصنوعی در رویدادهای حساس خبری را پررنگ کرده است.

گروک چه اطلاعات نادرستی پخش کرد؟

به گزارش ورج، Grok در پاسخ به پرسش کاربران درباره این حادثه، مرد ۴۳ ساله‌ای به نام «احمد الاحمد» که در ویدئویی ثبت‌شده مهاجم را خلع سلاح کرده، به‌اشتباه شناسایی کرده و حتی مدعی شده ویدئوی تأییدشده از این لحظه، درواقع یک ویدئوی قدیمی و وایرال از مردی است که از درخت بالا می‌رود. همچنین یک وب‌سایت خبری جعلی که ظاهراً با هوش مصنوعی تولید شده و نام فرد خیالی دیگری را به‌عنوان قهرمان ماجرا ذکر کرده بود، توسط Grok دریافت و در پاسخ‌ها بازتولید شده است.

این چت‌بات در موارد دیگری نیز تصاویر و ویدئوهای مربوط به این فرد را نادرست تفسیر کرده است؛ از جمله نسبت‌دادن آن‌ها به سناریوهای کاملاً بی‌ربط، مانند تصاویری از گروگان‌گیری یا وقایع طبیعی در سواحل دیگر استرالیا. افزون بر این، گزارش شده که Grok در همان روز در پاسخ به پرسش‌های غیرمرتبط، توضیحاتی درباره تیراندازی باندای یا حتی داده‌های سیاسی نامربوط ارائه کرده است.

چرا این مسئله برای صنعت هوش مصنوعی مهم است؟

این نمونه تازه نشان می‌دهد مدل‌های زبانی بزرگ، حتی وقتی به‌صورت عمومی و در سکویی با مخاطب انبوه عرضه می‌شوند، همچنان مستعد خطا، برداشت اشتباه و تقویت محتوای جعلی‌اند. در زمینه‌ای به‌حساسیت حمله مسلحانه و قهرمانی فردی که جان دیگران را نجات داده است، بازتولید روایت‌های ساختگی می‌تواند به بی‌اعتمادی عمومی، آسیب به اعتبار افراد و انتشار بیشتر اخبار جعلی منجر شود.

برای کاربرانی در کشورهایی مانند ایران که از شبکه‌های اجتماعی و ابزارهای مبتنی بر هوش مصنوعی برای دنبال‌کردن خبرهای بین‌المللی استفاده می‌کنند، این ماجرا یادآوری می‌کند که پاسخ چت‌بات‌ها و سامانه‌های هوشمند را نباید به‌عنوان منبع نهایی واقعیت پذیرفت و همچنان نیاز به مراجعه به رسانه‌های حرفه‌ای و راستی‌آزمایی مستقل وجود دارد.

در نهایت، نویسنده گزارش تأکید می‌کند که این اتفاق فقط نمونه‌ای دیگر از این واقعیت است که هوش مصنوعی هنوز به اندازه‌ای «قابل اعتماد» نیست که وظیفه راستی‌آزمایی و تشخیص حقیقت در رویدادهای زنده و پیچیده به آن سپرده شود.

منبع خبر: The Verge

منبع: The Verge

توییترتلگرامواتساپ

مقالات مرتبط

چرا نسل جدید موتورهای تصویرساز هوش مصنوعی «واقعی‌تر» شده است؟
چرا نسل جدید موتورهای تصویرساز هوش مصنوعی «واقعی‌تر» شده است؟

نویسنده ورج توضیح می‌دهد که چگونه موتورهای تصویرساز هوش مصنوعی با تقلید از نقص‌ها و محدودیت‌های دوربین‌های گوشی، تصاویر قانع‌کننده‌تری می‌سازند. این روند، تشخیص عکس واقعی از ساختگی را سخت‌تر می‌کند و نیاز به استانداردهای برچسب‌گذاری محتوا را بالا می‌برد.

5 دقیقه
رونق مراکز داده‌ هوش مصنوعی تهدیدی برای پروژه‌های عمرانی
رونق مراکز داده‌ هوش مصنوعی تهدیدی برای پروژه‌های عمرانی

رشد ساخت مراکز داده‌ برای هوش مصنوعی در آمریکا می‌تواند منابع مالی و نیروی انسانی را از پروژه‌های زیرساختی مانند جاده و پل منحرف کند. کارشناسان هشدار می‌دهند این رقابت، سرعت نوسازی زیرساخت‌ها را کاهش می‌دهد.

5 دقیقه