ChatGPT برای مشاوره پزشکی

5 دلیل برای اینکه به ChatGPT برای مشاوره پزشکی اعتماد نکنید

زمان مطالعه 4 دقیقه

ChatGPT برای بسیاری از کارها مفید است، اما برخی کاستی های مهم وجود دارد که باید قبل از اعتماد به آن برای مشاوره پزشکی دو بار فکر کنید.

ChatGPT – یک چت ربات هوش مصنوعی (AI) که توسط OpenAI توسعه یافته است – به ابزاری همه کاره برای پاسخ دادن به بسیاری از سوالات ساده و دشوار از جمله درخواست مشاوره پزشکی تبدیل شده است. می‌تواند به سؤالات پزشکی پاسخ دهد و در آزمون مجوز پزشکی ایالات متحده (USMLE) شرکت کند، اما نمی‌تواند جایگزین قرار ملاقات با پزشک در بیمارستان شود.

همانطور که ChatGPT پیشرفت می کند، این پتانسیل را دارد که بخش مراقبت های بهداشتی را به طور کامل متحول کند. هنگامی که با سیستم های بهداشتی ادغام می شود، ممکن است دسترسی بیمار به مراقبت را بهبود بخشد و کارایی کاری پزشکان را افزایش دهد. با این حال، به دلیل اینکه مبتنی بر هوش مصنوعی است، نگرانی‌های متعددی در مورد خطرات احتمالی آن وجود دارد.

1. ChatGPT دانش محدودی دارد

ChatGPT همه چیز را نمی داند. طبق گفته OpenAI، ChatGPT دانش محدودی دارد، به ویژه وقتی صحبت از اتفاقات پس از سپتامبر 2021 می شود.

ChatGPT دسترسی مستقیم به موتورهای جستجو یا اینترنت ندارد. با استفاده از حجم وسیعی از داده‌های متنی از منابع متعدد، از جمله کتاب‌ها، وب‌سایت‌ها و متون دیگر آموزش داده شد. داده‌هایی را که ارائه می‌کند، «نمی‌داند». در عوض، ChatGPT از متنی که خوانده است برای ایجاد پیش‌بینی در مورد کلمات مورد استفاده و به ترتیب استفاده می‌کند.

بنابراین، نمی تواند اخبار فعلی در مورد تحولات در زمینه های پزشکی را دریافت کند. بله، ChatGPT از پیوند قلب خوک به انسان یا هر پیشرفت اخیر در علم پزشکی بی اطلاع است.

2. ChatGPT ممکن است اطلاعات نادرستی تولید کند

ChatGPT می‌تواند به سوالاتی که می‌پرسید پاسخ دهد، اما پاسخ‌ها می‌توانند نادرست یا مغرضانه باشند. طبق یک مطالعه PLoS Digital Health، ChatGPT با حداقل 50 درصد دقت در تمام معاینات USMLE انجام شد. و در حالی که در برخی موارد از آستانه عبور از 60 درصد فراتر رفته است، همچنان احتمال خطا وجود دارد.

علاوه بر این، تمام اطلاعات مورد استفاده برای آموزش ChatGPT معتبر نیستند. پاسخ‌های مبتنی بر اطلاعات تأیید نشده یا بالقوه مغرضانه ممکن است نادرست یا قدیمی باشند. در دنیای پزشکی، اطلاعات نادرست حتی می تواند به قیمت یک زندگی تمام شود.

از آنجایی که ChatGPT نمی تواند به طور مستقل در مورد مطالب تحقیق یا تأیید کند، نمی تواند بین واقعیت و داستان تفاوت قائل شود. مجلات معتبر پزشکی، از جمله مجله انجمن پزشکی آمریکا (JAMA)، مقررات سختگیرانه ای وضع کرده اند که فقط انسان ها می توانند مطالعات علمی منتشر شده در این مجله را بنویسند. در نتیجه، باید دائماً پاسخ‌های ChatGPT را بررسی کنید.

3. ChatGPT شما را از نظر فیزیکی معاینه نمی کند

تشخیص پزشکی تنها به علائم بستگی ندارد. پزشکان می توانند از طریق معاینه فیزیکی بیمار به بینش هایی در مورد الگو و شدت بیماری دست یابند. امروزه پزشکان برای تشخیص بیماران هم از فناوری های پزشکی و هم از حواس پنج گانه استفاده می کنند.

ChatGPT نمی تواند یک چکاپ مجازی کامل یا حتی یک معاینه فیزیکی انجام دهد. فقط می تواند به علائمی که شما به عنوان پیام ارائه می دهید پاسخ دهد. برای ایمنی و مراقبت از بیمار، خطا در معاینه فیزیکی – یا نادیده گرفتن کامل معاینه فیزیکی – می تواند مضر باشد. از آنجایی که ChatGPT شما را به صورت فیزیکی معاینه نکرده است، تشخیص نادرستی ارائه می دهد.

4. ChatGPT می تواند اطلاعات نادرست ارائه دهد

یک مطالعه اخیر توسط دانشکده پزشکی دانشگاه مریلند در مورد توصیه ChatGPT برای غربالگری سرطان سینه نتایج زیر را نشان داد:

ما در تجربه خود دیده‌ایم که ChatGPT گاهی مقالات جعلی مجلات یا کنسرسیوم‌های بهداشتی را برای حمایت از ادعاهای خود ایجاد می‌کند. -Paul Yi M.D.، استادیار رادیولوژی تشخیصی و پزشکی هسته ای در UMSOM

به عنوان بخشی از آزمایش ChatGPT، فهرستی از کتاب‌های غیرداستانی را درخواست کردیم که موضوع ضمیر ناخودآگاه را پوشش می‌دهند. در نتیجه، ChatGPT یک کتاب جعلی با عنوان “قدرت ذهن ناخودآگاه” توسط Dr. گوستاو کوهن.

وقتی درباره کتاب جویا شدیم، پاسخ داد که این کتاب «فرضی» است که خودش خلق کرده است. اگر بیشتر پرس و جو نکنید، ChatGPT به شما نمی گوید که آیا یک مقاله یا کتاب مجله نادرست است.

5. ChatGPT فقط یک مدل زبان هوش مصنوعی است

مدل های زبان به جای بررسی یا مطالعه وضعیت بیمار، با حفظ و تعمیم متن عمل می کنند. علیرغم ایجاد پاسخ‌هایی که از نظر زبان و دستور زبان با استانداردهای انسانی مطابقت دارند، ChatGPT همچنان مانند سایر ربات‌های هوش مصنوعی دارای تعدادی مشکلات است.

ChatGPT جایگزینی برای پزشک شما نیست

پزشکان انسانی همیشه برای تصمیم گیری نهایی در مورد مراقبت های بهداشتی مورد نیاز خواهند بود. ChatGPT معمولاً توصیه می کند هنگامی که از مشاوره پزشکی می خواهید با یک پزشک دارای مجوز صحبت کنید.

ابزارهای مبتنی بر هوش مصنوعی مانند ChatGPT را می توان برای برنامه ریزی قرار ملاقات با پزشک، کمک به بیماران در دریافت درمان ها و حفظ اطلاعات سلامتی آنها استفاده کرد. اما نمی تواند جای تخصص و همدلی یک پزشک را بگیرد.

برای تشخیص یا درمان سلامتی خود، چه جسمی و چه روانی، نباید به ابزار مبتنی بر هوش مصنوعی تکیه کنید.

امتیاز دهید

برای این نوشته برچسبی وجود ندارد !

نظرات کاربران

دیدگاهی بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

تومان (IRT)
()
پرداخت می‌کنید
()
تومان (IRT)
دریافت می‌کنید
1 = IRT