ChatGPT برای بسیاری از کارها مفید است، اما برخی کاستی های مهم وجود دارد که باید قبل از اعتماد به آن برای مشاوره پزشکی دو بار فکر کنید.
ChatGPT – یک چت ربات هوش مصنوعی (AI) که توسط OpenAI توسعه یافته است – به ابزاری همه کاره برای پاسخ دادن به بسیاری از سوالات ساده و دشوار از جمله درخواست مشاوره پزشکی تبدیل شده است. میتواند به سؤالات پزشکی پاسخ دهد و در آزمون مجوز پزشکی ایالات متحده (USMLE) شرکت کند، اما نمیتواند جایگزین قرار ملاقات با پزشک در بیمارستان شود.
همانطور که ChatGPT پیشرفت می کند، این پتانسیل را دارد که بخش مراقبت های بهداشتی را به طور کامل متحول کند. هنگامی که با سیستم های بهداشتی ادغام می شود، ممکن است دسترسی بیمار به مراقبت را بهبود بخشد و کارایی کاری پزشکان را افزایش دهد. با این حال، به دلیل اینکه مبتنی بر هوش مصنوعی است، نگرانیهای متعددی در مورد خطرات احتمالی آن وجود دارد.
1. ChatGPT دانش محدودی دارد
ChatGPT همه چیز را نمی داند. طبق گفته OpenAI، ChatGPT دانش محدودی دارد، به ویژه وقتی صحبت از اتفاقات پس از سپتامبر 2021 می شود.
ChatGPT دسترسی مستقیم به موتورهای جستجو یا اینترنت ندارد. با استفاده از حجم وسیعی از دادههای متنی از منابع متعدد، از جمله کتابها، وبسایتها و متون دیگر آموزش داده شد. دادههایی را که ارائه میکند، «نمیداند». در عوض، ChatGPT از متنی که خوانده است برای ایجاد پیشبینی در مورد کلمات مورد استفاده و به ترتیب استفاده میکند.
بنابراین، نمی تواند اخبار فعلی در مورد تحولات در زمینه های پزشکی را دریافت کند. بله، ChatGPT از پیوند قلب خوک به انسان یا هر پیشرفت اخیر در علم پزشکی بی اطلاع است.
2. ChatGPT ممکن است اطلاعات نادرستی تولید کند
ChatGPT میتواند به سوالاتی که میپرسید پاسخ دهد، اما پاسخها میتوانند نادرست یا مغرضانه باشند. طبق یک مطالعه PLoS Digital Health، ChatGPT با حداقل 50 درصد دقت در تمام معاینات USMLE انجام شد. و در حالی که در برخی موارد از آستانه عبور از 60 درصد فراتر رفته است، همچنان احتمال خطا وجود دارد.
علاوه بر این، تمام اطلاعات مورد استفاده برای آموزش ChatGPT معتبر نیستند. پاسخهای مبتنی بر اطلاعات تأیید نشده یا بالقوه مغرضانه ممکن است نادرست یا قدیمی باشند. در دنیای پزشکی، اطلاعات نادرست حتی می تواند به قیمت یک زندگی تمام شود.
از آنجایی که ChatGPT نمی تواند به طور مستقل در مورد مطالب تحقیق یا تأیید کند، نمی تواند بین واقعیت و داستان تفاوت قائل شود. مجلات معتبر پزشکی، از جمله مجله انجمن پزشکی آمریکا (JAMA)، مقررات سختگیرانه ای وضع کرده اند که فقط انسان ها می توانند مطالعات علمی منتشر شده در این مجله را بنویسند. در نتیجه، باید دائماً پاسخهای ChatGPT را بررسی کنید.
3. ChatGPT شما را از نظر فیزیکی معاینه نمی کند
تشخیص پزشکی تنها به علائم بستگی ندارد. پزشکان می توانند از طریق معاینه فیزیکی بیمار به بینش هایی در مورد الگو و شدت بیماری دست یابند. امروزه پزشکان برای تشخیص بیماران هم از فناوری های پزشکی و هم از حواس پنج گانه استفاده می کنند.
ChatGPT نمی تواند یک چکاپ مجازی کامل یا حتی یک معاینه فیزیکی انجام دهد. فقط می تواند به علائمی که شما به عنوان پیام ارائه می دهید پاسخ دهد. برای ایمنی و مراقبت از بیمار، خطا در معاینه فیزیکی – یا نادیده گرفتن کامل معاینه فیزیکی – می تواند مضر باشد. از آنجایی که ChatGPT شما را به صورت فیزیکی معاینه نکرده است، تشخیص نادرستی ارائه می دهد.
4. ChatGPT می تواند اطلاعات نادرست ارائه دهد
یک مطالعه اخیر توسط دانشکده پزشکی دانشگاه مریلند در مورد توصیه ChatGPT برای غربالگری سرطان سینه نتایج زیر را نشان داد:
ما در تجربه خود دیدهایم که ChatGPT گاهی مقالات جعلی مجلات یا کنسرسیومهای بهداشتی را برای حمایت از ادعاهای خود ایجاد میکند. -Paul Yi M.D.، استادیار رادیولوژی تشخیصی و پزشکی هسته ای در UMSOM
به عنوان بخشی از آزمایش ChatGPT، فهرستی از کتابهای غیرداستانی را درخواست کردیم که موضوع ضمیر ناخودآگاه را پوشش میدهند. در نتیجه، ChatGPT یک کتاب جعلی با عنوان “قدرت ذهن ناخودآگاه” توسط Dr. گوستاو کوهن.
وقتی درباره کتاب جویا شدیم، پاسخ داد که این کتاب «فرضی» است که خودش خلق کرده است. اگر بیشتر پرس و جو نکنید، ChatGPT به شما نمی گوید که آیا یک مقاله یا کتاب مجله نادرست است.
5. ChatGPT فقط یک مدل زبان هوش مصنوعی است
مدل های زبان به جای بررسی یا مطالعه وضعیت بیمار، با حفظ و تعمیم متن عمل می کنند. علیرغم ایجاد پاسخهایی که از نظر زبان و دستور زبان با استانداردهای انسانی مطابقت دارند، ChatGPT همچنان مانند سایر رباتهای هوش مصنوعی دارای تعدادی مشکلات است.
ChatGPT جایگزینی برای پزشک شما نیست
پزشکان انسانی همیشه برای تصمیم گیری نهایی در مورد مراقبت های بهداشتی مورد نیاز خواهند بود. ChatGPT معمولاً توصیه می کند هنگامی که از مشاوره پزشکی می خواهید با یک پزشک دارای مجوز صحبت کنید.
ابزارهای مبتنی بر هوش مصنوعی مانند ChatGPT را می توان برای برنامه ریزی قرار ملاقات با پزشک، کمک به بیماران در دریافت درمان ها و حفظ اطلاعات سلامتی آنها استفاده کرد. اما نمی تواند جای تخصص و همدلی یک پزشک را بگیرد.
برای تشخیص یا درمان سلامتی خود، چه جسمی و چه روانی، نباید به ابزار مبتنی بر هوش مصنوعی تکیه کنید.
نظرات کاربران