یافته‌های یک مطالعه علمی نشان می‌دهد در حالی که هوش مصنوعی نمی‌تواند جایگزین پزشکان شود اما قادر است پاسخ‌های دقیق و همدلانه‌ای برای بیماران ارائه دهد.

ربات‌ها با روپوش سفید برای معاینه می‌آیند

به گزارش سلامت نیوز به نقل از ایرنا،مطالعه‌ای جدید که در مجله‌ پزشکی «جاما اینترنال مدیساین» (JAMA Internal Medicine ) منتشر شده، نشان می‌دهد ابزارهای هوش مصنوعی می‌توانند به پزشکان در تهیه پاسخ‌های نوشتاری باکیفیت و همچنین تعامل همدلانه با بیماران کمک کنند.

این مطالعه، عملکرد «چت جی‌پی‌تی» (ChatGPT) را با پاسخ‌های مکتوب‌شده پزشکان در انجمن آنلاین «اَسک‌داکس»( AskDocs) مقایسه کرده است. توضیح اینکه اَسک‌داکس فضایی است که در آن افراد می‌توانند به صورت عمومی پرسش‌های پزشکی خود را مطرح کنند و متخصصان مراقبت‌های بهداشتیِ تاییدشده نیز به آن‌ها پاسخ می‌دهند.

دستیارهای هوش مصنوعی برخلاف انسان‌ها احساس همدردی واقعی ندارند و بنابراین، در معرض رنج عاطفی ناشی از همدردی با درد دیگران قرار نمی‌گیرند. فرسودگی شغلی پزشکان رو به افزایش است و تا حد زیادی به حجم زیاد کارهای اداری نسبت داده می‌شود.

محققان به طور تصادفی ۱۹۵ پاسخ تاییدشده‌ پزشکان به یک پرسش عمومی در این پلتفرم را نمونه‌برداری کرده و سپس همین سوال را از ChatGPT پرسیده‌اند. سپس، یک گروه سه نفره از متخصصان مراقبت‌های بهداشتی مستقل، بدون اینکه بدانند چه کسی به سوال پاسخ داده، بهترین پاسخ را انتخاب کرده‌اند. در ادامه کیفیت اطلاعات ارائه شده و همچنین سطح همدلی یا «عملکرد بالینی» مورد ارزیابی قرار گرفته است.

متخصصان مراقبت‌های بهداشتی مستقل، در ۷۹درصد موارد پاسخ‌های ChatGPT را انتخاب کرده‌اند. پاسخ‌های ChatGPT در قیاس با پاسخ‌های پزشکان، ۳.۶ برابر از نظر کیفیت و ۹.۸ برابر از نظر همدلی، امتیاز بالاتری دریافت داشته است.

همچنین، پاسخ‌های ChatGPT به طور قابل توجهی طولانی‌تر بوده است. (به طور متوسط ۲۱۱ کلمه)، در حالی که پاسخ‌های پزشکان بسیار کوتاه‌تر (به طور متوسط ۵۲ کلمه) به ثبت رسیده است. تیم بالینی که پاسخ‌ها را ارزیابی می‌کرد، دریافته که پاسخ‌های ChatGPT هم دقیق و هم ظریف است.

روندهای نوظهور حضور هوش مصنوعی در عرصه پزشکی

در اینجا چهار روند نوظهور در ارتباط با آینده تقویت پاسخگویی پزشکان به بیماران با استفاده از هوش مصنوعی آمده است:

۱- تحقیق در مورد ابزارهای هوش مصنوعی که در محیط‌های بالینی ادغام شده‌اند، مفید خواهد بود.

این مطالعه نشان نمی‌دهد که هوش مصنوعی می‌تواند جایگزین پزشکان شود و در یک محیط بالینی انجام نشده است اما پتانسیل دستیارهای هوش مصنوعی مانند ChatGPT را برای کمک به پزشکان در پاسخ‌دهی به بیماران برجسته می‌کند.

گام بعدی بررسی عملکرد دستیارهای هوش مصنوعی در محیط‌های بالینی (به جای یک بستر عمومی رسانه‌های اجتماعی) خواهد بود، از جمله اینکه چگونه این دستیارها در صورت ادغام یکپارچه با پلتفرم‌های امنِ ثبتِ الکترونیکِ پزشکی (جایی که پزشکان به سؤالات خصوصی مستقیم بیماران پاسخ می‌دهند)، عمل می‌کنند.

نوع سوالات در یک محیط بالینی خصوصی ممکن است به موارد فردی مختص شده باشد و به شیوه‌ای متفاوت از سؤالات مطرح شده در بسترهای عمومی نوشته شود.

پرسش‌های خصوصی بیماران ممکن است این را پیش‌فرض قرار دهند که پزشک از قبل در مورد شرایط آن‌ها مطلع است یا به مطالبی اشاره کند که پیشتر به صورت حضوری مورد بحث قرار گرفته است. این نوع سوال‌ها ممکن است چالش‌های متفاوتی برای ChatGPT ایجاد کند.

مدل‌های هوش مصنوعی هنوز در زمینه‌ تعصب، توهم و گاهی اوقات محاسبات اشتباه محدودیت‌هایی دارند

۲- کمک هوش مصنوعی می‌تواند از فرسودگی و رنج عاطفی پزشکان و متخصصان مراقبت‌های بهداشتی بکاهد.

دستیارهای هوش مصنوعی برخلاف انسان‌ها احساس همدردی واقعی ندارند و بنابراین، در معرض رنج عاطفی ناشی از همدردی با درد دیگران قرار نمی‌گیرند. فرسودگی شغلی پزشکان رو به افزایش است و تا حد زیادی به حجم زیاد کارهای اداری نسبت داده می‌شود.

براساس گزارش سال ۲۰۲۳ «فرسودگی شغلی و افسردگی پزشکان» موسسه «مدسکیپ»، ۵۳ درصد از پزشکان دچار فرسودگی شغلی هستند و تقریباً ۲۵درصد از آن‌ها علائم افسردگی را نشان می‌دهند.

مهم‌ترین عامل موثر در فرسودگی، وظایف اداری و دیوان‌سالاری بوده است، به طوری که پزشکان گزارش می‌دهند بیش از ۹ ساعت در هفته صرف امور ثبت و مستندات می‌کنند. ابزارهای هوش مصنوعی می‌توانند با ارائه پیش‌نویس‌هایی برای برقراری ارتباط با بیماران، بخشی از این بار کاری را کاهش دهند.

۳- آموزش محدودیت‌های هوش مصنوعی از جمله تعصب، برای پزشکان ضروری است.

مدل‌های هوش مصنوعی هنوز در زمینه‌ «تعصب، توهم و گاهی اوقات محاسبات اشتباه» محدودیت‌هایی دارند. بنابراین، نظارت پزشک و متخصصان مراقبت‌های بهداشتی همچنان ضروری است، زیرا ارتباطات پزشکی بر سلامت بیماران تاثیر می‌گذارد. آموزش و آگاهی‌رسانی به پزشکان در مورد این محدودیت‌های هوش مصنوعی باید انجام شود تا از ارسال پیش‌نویس‌های تولیدشده از سوی هوش مصنوعی بدون بررسی توسط پزشک جلوگیری شود.

۴-تاثیر بلندمدت ابزارهای هوش مصنوعی بر قضاوت بالینی، تصمیم‌گیری و روابط بین فردی پزشکان در حال حاضر ناشناخته است.

اثرات بلندمدت وابستگی به ابزارهای هوش مصنوعی مشخص نیست. عواقب تکیه‌ بیش از حد پزشکان به این ابزارها برای تولید پاسخ به بیماران چیست؟ آیا تعصبی که در داده‌های آموزشی هوش مصنوعی وجود دارد، بر رفتار، تصمیم‌گیری یا روابط بین فردی پزشک تأثیر خواهد گذاشت؟ پاسخ به این پرسش‌ها نامشخص است و کشف اینکه هوش مصنوعی چطور رابطه‌ی پزشک و بیمار را تغییر می‌دهد، بخشی از این جست‌وجو خواهد بود.

اگر پزشکان بیش از حد به ابزارهای هوش مصنوعی تکیه کنند، ممکن است مهارت‌های بالینی خود و رابطه‌ شخصی با بیماران را از دست بدهند

جمع‌بندی

هوش مصنوعی ظرفیت زیادی برای بهبود مراقبت‌های بهداشتی دارد. ابزارهای هوش مصنوعی می‌توانند به پزشکان در تشخیص بیماری‌ها، ارائه درمان‌های موثرتر و بهبود ارتباطات با بیماران کمک کنند.

با این حال، استفاده از هوش مصنوعی در مراقبت‌های بهداشتی چالش‌هایی نیز دارد. یکی از این چالش‌ها، محدودیت‌های هوش مصنوعی است. مدل‌های هوش مصنوعی هنوز در زمینه‌هایی مانند تعصب، توهم و محاسبات اشتباه، محدودیت‌هایی دارند. این محدودیت‌ها می‌توانند منجر به خطاهای تشخیصی یا درمانی شوند.

چالش دیگر، تاثیر بلندمدت هوش مصنوعی بر رابطه‌ پزشک و بیمار است. اگر پزشکان بیش از حد به ابزارهای هوش مصنوعی تکیه کنند، ممکن است مهارت‌های بالینی خود و رابطه‌ شخصی با بیماران را از دست بدهند.

برای غلبه بر این چالش‌ها، آموزش و نظارت بر پزشکان در مورد محدودیت‌های هوش مصنوعی ضروری است. همچنین، باید تحقیقات بیشتری در مورد تاثیر بلندمدت هوش مصنوعی بر مراقبت‌های بهداشتی انجام شود.

در مجموع، هوش مصنوعی می‌تواند ابزاری قدرتمند برای بهبود مراقبت‌های بهداشتی باشد. با این حال، استفاده از آن باید با دقت و آگاهی انجام شود تا جلوی بروز خطاها و عواقب منفی احتمالی را بگیرد.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha