مدیرعامل و همبنیانگذار استارتاپ صوتی ElevenLabs معتقد است که «صدا» در حال تبدیل شدن به رابط اصلی تعامل با هوش مصنوعی است؛ یعنی بهجای تایپ کردن و لمس صفحه، بیشتر با صحبت کردن با سیستمهای هوشمند کار خواهیم کرد.
صدا فراتر از تقلید گفتار انسان
ماتی استانیشفسکی در رویداد Web Summit دوحه توضیح داده است که نسل جدید مدلهای صوتی، فقط تقلید لحن و احساسات انسان نیستند، بلکه در کنار مدلهای زبانی قدرتمند کار میکنند و همین باعث تغییر شکل تعامل ما با فناوری میشود. او میگوید اگر این روند ادامه پیدا کند، در سالهای آینده گوشیها بیشتر در جیب میمانند و صدا، کنترل اصلی بسیاری از سرویسها و دستگاهها خواهد شد.
به گفته او و برخی سرمایهگذاران حاضر در این رویداد، با گسترش عاملهای هوشمند (Agents) و حافظهی بلندمدت در مدلها، لازم نیست کاربران همه فرمانها را دقیق و مرحلهبهمرحله بگویند؛ سیستمها بهمرور کاربر را میشناسند، زمینه را درک میکنند و پاسخ مناسبتری میدهند. این تغییر میتواند بر نحوه طراحی اپلیکیشنها، دیوایسهای پوشیدنی، خودروهای متصل و حتی عینکهای هوشمند اثر جدی بگذارد.
رقابت شرکتهای بزرگ و اهمیت حریم خصوصی
شرکتهای بزرگ عرصه فناوری نیز در حال سرمایهگذاری جدی روی رابطهای صوتی برای هوش مصنوعی هستند و صدا را میدان رقابت بعدی میدانند. در کنار فرصتهای جدید، این روند پرسشهای مهمی درباره حریم خصوصی و میزان دادهی صوتی ذخیرهشده از کاربران ایجاد میکند؛ زیرا هرچه دستیارهای صوتی دائمیتر و نزدیکتر به زندگی روزمره شوند، حساسیت نسبت به شنود مداوم و تحلیل صدا نیز بیشتر خواهد شد.
برای کاربران ایرانی هم پیشرفت این حوزه اهمیت دارد؛ چون بسیاری از سرویسهای جهانی بر پایه همین رابطهای هوشمند توسعه مییابند و آشنایی با آنها میتواند در انتخاب ابزار مناسب، از جمله سرویسهای مختلف هوش مصنوعی مفید باشد. اگر قصد تست و استفاده از مدلهای گفتگومحور، تولید صدا یا دستیارهای پیشرفته را دارید، میتوانید از سرویسهای مختلف در بازار جهانی استفاده کنید؛ یکی از راههای ساده، خرید اکانت های هوشمصنوعی از پلتفرمهایی است که دسترسی آماده به این ابزارها را ارائه میدهند.
منبع خبر: TechCrunch




