OpenAI با معرفی قابلیت «ChatGPT Health» از کاربران میخواهد برای دریافت راهنمایی در مورد آزمایشها، نسخهها و سبک زندگی، دادههای حساس پزشکی و سلامت خود را با چتبات به اشتراک بگذارند؛ اما کارشناسان حقوق و سلامت در گفتوگو با The Verge هشدار میدهند که تکیه روی وعدههای یک شرکت فناوری، جای قوانین سفتوسخت پزشکی را نمیگیرد.
چتباتها پزشک نیستند و زیر بار قوانین پزشکی هم نمیروند
به گزارش The Verge، OpenAI میگوید صدها میلیون کاربر هر هفته برای مشاوره سلامت و سبک زندگی از ChatGPT استفاده میکنند و حالا با تب جدید ChatGPT Health آنها را تشویق میکند نتایج آزمایشها، پرونده پزشکی و حتی دادههای اپهای ورزشی و سلامتی را در اختیار چتبات بگذارند. شرکت تأکید میکند این دادهها محرمانه میمانند، رمزگذاری میشوند و برای آموزش مدلها استفاده نخواهند شد.
با این حال متخصصان حقوق سلامت یادآور میشوند که برخلاف بیمارستانها و پزشکان، شرکتهای فناوری عموماً تحت قوانین سختگیرانهای مثل HIPAA (در آمریکا) قرار نمیگیرند و هر آنچه درباره حفظ حریم خصوصی میگویند، عملاً فقط در حد متن سیاست حریم خصوصی و شروط استفاده است؛ متنی که هر زمان میتواند تغییر کند. به همین دلیل، کاربران در برابر تغییر سیاستها یا نقض دادهها، پشتوانه حقوقی مشابه سیستم درمانی ندارند و عملاً باید به «قول» شرکت اکتفا کنند.
از سوی دیگر، خود چتباتها هم میتوانند اطلاعات نادرست یا حتی خطرناک در حوزه سلامت ارائه کنند؛ چیزی که در نمونههای مختلف، از توصیههای تغذیهای غلط گرفته تا راهنمایی اشتباه برای بیماران سرطانی، دیده شده است. OpenAI تأکید میکند ChatGPT Health برای تشخیص و درمان نیست و فقط باید همراه پزشک استفاده شود، اما وقتی تجربه کاربری شبیه یک مشاوره شخصی و حرفهای است، بسیاری از افراد ناخودآگاه به آن اعتماد بیش از حد میکنند.
ابهام در مرز میان ابزار مصرفی و «ابزار پزشکی»
در کنار ChatGPT Health که برای کاربران عادی طراحی شده، OpenAI محصولی جداگانه با نام «ChatGPT for Healthcare» برای بیمارستانها و سازمانهای درمانی ارائه کرده که طبق ادعای شرکت، حفاظت دادهٔ سختگیرانهتری دارد و برای استفاده حرفهای در محیط بالینی است. تشابه نام و فاصلهٔ زمانی اندک در معرفی این دو محصول، بهگفته کارشناسان باعث میشود بسیاری از کاربران تصور کنند که هر دو، سطح امنیت و پایبندی حقوقی مشابهی دارند؛ در حالی که چنین نیست.
تحلیلگران حقوقی همچنین میگویند وقتی ابزاری مثل ChatGPT Health برای تفسیر نتایج آزمایش، رصد رفتارهای سلامت و کمک به تصمیمگیری درباره درمان استفاده میشود، منطقی است سؤال کنیم آیا این سرویس نباید بهعنوان «ابزار پزشکی» تحت نظارت رگولاتورهایی مثل FDA قرار گیرد یا خیر. فعلاً شرکتها معمولاً با افزودن یک دیسکلیمر ساده که میگوید ابزار برای تشخیص و درمان نیست، از این نظارت فرار میکنند و همین موضوع چالش بزرگی برای تنظیمگری در حوزه هوش مصنوعی در سلامت ایجاد کرده است.
این بحث برای کاربران ایرانی چه اهمیتی دارد؟
گرچه سرویسهایی مانند ChatGPT Health فعلاً در بسیاری از کشورها (از جمله برخی کشورهای اروپایی) در دسترس نیستند، اما الگوی کلی یعنی استفاده از چتباتهای عمومی برای پرسشهای پزشکی، در ایران هم بهشدت رایج شده است؛ چه از طریق نسخههای رسمی و چه اکانتهای واسط. اگر از هوش مصنوعی برای پرسشهای درمانی استفاده میکنید، باید با احتیاط بسیار بالا جلو بروید، حتماً با پزشک مشورت کنید و روی وعدههای حریم خصوصی شرکتها حساب کامل باز نکنید.
به علاوه، اگر برای کار، تحصیل یا پیگیری اخبار و تحقیقات پزشکی به ابزارهای هوش مصنوعی نیاز دارید، بهتر است از همان ابتدا بدانید چه دادههایی را با این سرویسها به اشتراک میگذارید و چه ریسکهایی دارد. در چنین شرایطی، استفاده هوشمندانه از سرویسها و انتخاب آگاهانه میان ابزارها (مثلاً هنگام خرید اکانت های هوشمصنوعی) میتواند تا حدی ریسکها را کاهش دهد، مشروط بر اینکه هرگز جای پزشک و نظام درمانی را با یک چتبات عوض نکنید.
منبع خبر: The Verge




