هوش مصنوعی5 دقیقه مطالعه

هشدار درباره سپردن اطلاعات پزشکی به چت‌بات‌ها

OpenAI با ChatGPT Health کاربران را تشویق می‌کند داده‌های حساس پزشکی خود را با چت‌بات به اشتراک بگذارند. کارشناسان حقوق و سلامت می‌گویند این کار از نظر حریم خصوصی و دقت پزشکی بسیار پرریسک است.

برای اینکه تازه‌ترین خبرهای تکنولوژی رو بدونی، کلیک کن! تازه‌ترین خبرهای تکنولوژی اینجاست.

تصویر مفهومی ریسک حریم خصوصی در اشتراک‌گذاری اطلاعات پزشکی با چت‌بات‌ هوش مصنوعی

OpenAI با معرفی قابلیت «ChatGPT Health» از کاربران می‌خواهد برای دریافت راهنمایی در مورد آزمایش‌ها، نسخه‌ها و سبک زندگی، داده‌های حساس پزشکی و سلامت خود را با چت‌بات به اشتراک بگذارند؛ اما کارشناسان حقوق و سلامت در گفت‌وگو با The Verge هشدار می‌دهند که تکیه روی وعده‌های یک شرکت فناوری، جای قوانین سفت‌وسخت پزشکی را نمی‌گیرد.

چت‌بات‌ها پزشک نیستند و زیر بار قوانین پزشکی هم نمی‌روند

به گزارش The Verge، OpenAI می‌گوید صدها میلیون کاربر هر هفته برای مشاوره سلامت و سبک زندگی از ChatGPT استفاده می‌کنند و حالا با تب جدید ChatGPT Health آن‌ها را تشویق می‌کند نتایج آزمایش‌ها، پرونده پزشکی و حتی داده‌های اپ‌های ورزشی و سلامتی را در اختیار چت‌بات بگذارند. شرکت تأکید می‌کند این داده‌ها محرمانه می‌مانند، رمزگذاری می‌شوند و برای آموزش مدل‌ها استفاده نخواهند شد.

با این حال متخصصان حقوق سلامت یادآور می‌شوند که برخلاف بیمارستان‌ها و پزشکان، شرکت‌های فناوری عموماً تحت قوانین سخت‌گیرانه‌ای مثل HIPAA (در آمریکا) قرار نمی‌گیرند و هر آن‌چه درباره حفظ حریم خصوصی می‌گویند، عملاً فقط در حد متن سیاست حریم خصوصی و شروط استفاده است؛ متنی که هر زمان می‌تواند تغییر کند. به همین دلیل، کاربران در برابر تغییر سیاست‌ها یا نقض داده‌ها، پشتوانه حقوقی مشابه سیستم درمانی ندارند و عملاً باید به «قول» شرکت اکتفا کنند.

از سوی دیگر، خود چت‌بات‌ها هم می‌توانند اطلاعات نادرست یا حتی خطرناک در حوزه سلامت ارائه کنند؛ چیزی که در نمونه‌های مختلف، از توصیه‌های تغذیه‌ای غلط گرفته تا راهنمایی اشتباه برای بیماران سرطانی، دیده شده است. OpenAI تأکید می‌کند ChatGPT Health برای تشخیص و درمان نیست و فقط باید همراه پزشک استفاده شود، اما وقتی تجربه کاربری شبیه یک مشاوره شخصی و حرفه‌ای است، بسیاری از افراد ناخودآگاه به آن اعتماد بیش از حد می‌کنند.

ابهام در مرز میان ابزار مصرفی و «ابزار پزشکی»

در کنار ChatGPT Health که برای کاربران عادی طراحی شده، OpenAI محصولی جداگانه با نام «ChatGPT for Healthcare» برای بیمارستان‌ها و سازمان‌های درمانی ارائه کرده که طبق ادعای شرکت، حفاظت دادهٔ سخت‌گیرانه‌تری دارد و برای استفاده حرفه‌ای در محیط بالینی است. تشابه نام و فاصلهٔ زمانی اندک در معرفی این دو محصول، به‌گفته کارشناسان باعث می‌شود بسیاری از کاربران تصور کنند که هر دو، سطح امنیت و پایبندی حقوقی مشابهی دارند؛ در حالی که چنین نیست.

تحلیلگران حقوقی همچنین می‌گویند وقتی ابزاری مثل ChatGPT Health برای تفسیر نتایج آزمایش، رصد رفتارهای سلامت و کمک به تصمیم‌گیری درباره درمان استفاده می‌شود، منطقی است سؤال کنیم آیا این سرویس نباید به‌عنوان «ابزار پزشکی» تحت نظارت رگولاتورهایی مثل FDA قرار گیرد یا خیر. فعلاً شرکت‌ها معمولاً با افزودن یک دیسکلیمر ساده که می‌گوید ابزار برای تشخیص و درمان نیست، از این نظارت فرار می‌کنند و همین موضوع چالش بزرگی برای تنظیم‌گری در حوزه هوش مصنوعی در سلامت ایجاد کرده است.

این بحث برای کاربران ایرانی چه اهمیتی دارد؟

گرچه سرویس‌هایی مانند ChatGPT Health فعلاً در بسیاری از کشورها (از جمله برخی کشورهای اروپایی) در دسترس نیستند، اما الگوی کلی یعنی استفاده از چت‌بات‌های عمومی برای پرسش‌های پزشکی، در ایران هم به‌شدت رایج شده است؛ چه از طریق نسخه‌های رسمی و چه اکانت‌های واسط. اگر از هوش مصنوعی برای پرسش‌های درمانی استفاده می‌کنید، باید با احتیاط بسیار بالا جلو بروید، حتماً با پزشک مشورت کنید و روی وعده‌های حریم خصوصی شرکت‌ها حساب کامل باز نکنید.

به علاوه، اگر برای کار، تحصیل یا پیگیری اخبار و تحقیقات پزشکی به ابزارهای هوش مصنوعی نیاز دارید، بهتر است از همان ابتدا بدانید چه داده‌هایی را با این سرویس‌ها به اشتراک می‌گذارید و چه ریسک‌هایی دارد. در چنین شرایطی، استفاده هوشمندانه از سرویس‌ها و انتخاب آگاهانه میان ابزارها (مثلاً هنگام خرید اکانت های هوش‌مصنوعی) می‌تواند تا حدی ریسک‌ها را کاهش دهد، مشروط بر این‌که هرگز جای پزشک و نظام درمانی را با یک چت‌بات عوض نکنید.

منبع خبر: The Verge

منبع: The Verge

توییترتلگرامواتساپ

مقالات مرتبط

شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی
شتاب دوباره رشد چت‌جی‌پی‌تی همزمان با دور جدید سرمایه‌گذاری اوپن‌ای‌آی

طبق گزارشی از CNBC، سم آلتمان در جلسه‌ای داخلی از شتاب‌گرفتن دوباره رشد چت‌جی‌پی‌تی سخن گفته است؛ هم‌زمان گفته می‌شود اوپن‌ای‌آی در آستانه جذب دور جدیدی از سرمایه‌گذاری با ارزش‌گذاری بسیار بالا است.

5 دقیقه
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ
هشدار اتحادیه اروپا به متا برای عقب‌نشینی از سیاست هوش مصنوعی واتس‌اپ

اتحادیه اروپا به متا هشدار داده که در صورت عدم اصلاح سیاست‌های هوش مصنوعی در واتس‌اپ، اقدام‌های موقت ضدانحصار علیه این شرکت اعمال خواهد شد. بروکسل نگران استفاده متا از داده‌های کاربران برای خدمات هوش مصنوعی است.

5 دقیقه