یک گزارش تحلیلی در وبسایت ورج نشان میدهد که نسل جدید موتورهای تصویرساز هوش مصنوعی، با «بدتر کردن» ظاهری کیفیت تصویر و تقلید از نقصهای دوربینهای واقعی، در حال رسیدن به سطح تازهای از واقعگرایی هستند؛ سطحی که تشخیص تصویر واقعی از ساختگی را برای کاربر عادی بسیار دشوارتر میکند.
از تصاویر بامزه تا فیکهای بسیار واقعی
در ابتدای ظهور ابزارهایی مثل DALL‑E، میدجرنی و استیبل دیفیوژن، نشانههای واضحی مانند انگشتهای اضافی، نوشتههای نامفهوم و درخشش اغراقشده، اغلب بهراحتی لو میداد که تصویر با هوش مصنوعی ساخته شده است. اما بهگفته نویسنده، مدلهای جدید با کاهش آن ظاهر بیشازحد صاف و «گلیسی»، به سمت واقعگرایی حرکت کردهاند و عمداً کمی بههمریختگی، نورپردازی نامطلوب و جزئیات ناقص را وارد تصویر میکنند تا شبیه عکسهای روزمره باشند.
نمونهای که در گزارش برجسته شده، مدل جدید گوگل در اپلیکیشن Gemini است که در نسخهای با نام Nano Banana و بعدتر Nano Banana Pro، نهتنها توانایی بالایی در حفظ شباهت چهره کاربران نشان میدهد، بلکه ظاهر عکسهای گرفتهشده با دوربین گوشی را نیز تقلید میکند؛ از کنتراست و شارپکردن شدید گرفته تا نوع نوردهی و پر کردن سایهها. ابزارهای دیگر مانند Adobe Firefly و ابزار تولید تصویر متا نیز کنترلهایی برای کاهش جلوه «استودیویی» و نزدیککردن خروجی به عکس واقعی اضافه کردهاند.
کاهش کیفیت بهعنوان راه فرار از دره وهمانگیز
در این گزارش به نقل از یکی از توسعهدهندگان اپلیکیشن عکاسی Halide اشاره میشود که رویکرد تقلید مستقیم از پردازش تصویری گوشیها، میتواند به مدلها کمک کند از «دره وهمانگیز» عبور کنند؛ جایی که تصویر تقریباً واقعی است اما هنوز چیزی در آن غیرطبیعی بهنظر میرسد. ایده این است که هوش مصنوعی لزوماً نباید خودِ واقعیت را بازسازی کند، بلکه کافی است همان شیوهای را تقلید کند که ما بهطور معمول با آن واقعیت را ثبت میکنیم؛ با تمام محدودیتها و امضاهای تصویری مخصوص دوربینها.
همین روند در ویدئو نیز دیده میشود؛ برخی مدلهای ویدئوساز هوش مصنوعی حالا کلیپهایی میسازند که عمداً شبیه تصاویر کمکیفیت و دانهدانه دوربینهای مداربسته است، چون استاندارد مورد انتظار بیننده برای چنین ویدئوهایی بهطور ذاتی پایینتر است و جعل کردن آنها آسانتر بهنظر میرسد.
جنگ بر سر اعتماد به تصویر؛ از برچسبگذاری تا استانداردهای جدید
نویسنده در ادامه به این نکته میپردازد که هرچه مرز میان تصویر واقعی و مصنوعی کمرنگتر میشود، نقش ابزارهای فنی برای احراز اصالت تصویر پررنگتر خواهد شد. استانداردی به نام C2PA و ویژگی «Content Credentials» بهعنوان راهحلی در حال گسترش معرفی میشود؛ روشی که در آن، دوربینها و نرمافزارها با امضای رمزنگاریشده در متادیتای عکس مشخص میکنند تصویر چگونه و با چه ابزاری ساخته شده است. نمونهای از این رویکرد، پشتیبانی برخی گوشیها از ثبت این امضا برای همه عکسها – چه واقعی و چه ویرایششده با هوش مصنوعی – است تا این تصور غلط ایجاد نشود که «برچسب نداشتن» یعنی حتماً تصویر واقعی است.
با این حال، تا زمانی که تولیدکنندگان سختافزار و پلتفرمهای بزرگ اشتراکگذاری عکس و ویدئو، این استانداردها را بهطور گسترده پیادهسازی نکنند، کاربران در عمل تنها میتوانند با دیده شک و احتیاط به تصاویر نگاه کنند. برای مخاطبان ایرانی که بخش زیادی از اخبار و اطلاعات خود را از شبکههای اجتماعی تصویری و ویدئویی دریافت میکنند، این روند بهمعنای ضرورت سواد رسانهای بالاتر و آشنایی با نشانههای احتمالی جعل و نیز پیگیری ابزارهای تشخیص اصالت محتوا خواهد بود.
منبع خبر: The Verge




