به گزارش سلامت نیوز به نقل از یک پزشک به مناسبت تولد چهل سالگی کیم کارداشیان، همسر وقت او، کانیه وست، هولوگرام پدر مردهاش، رابرت کارداشیان را به او هدیه داد. گفته میشود کیم کارداشیان با ناباوری و خوشحالی به حضور مجازی پدرش در جشن تولدش واکنش نشان داده است. توانایی دیدن عزیزی که مدتها مرده و دلتنگ شده بود، حرکت کردن و صحبت کردن دوباره، ممکن است آرامش بخش باشد.
به هر حال، احیای یکی از عزیزان متوفی ممکن است معجزهآسا به نظر برسد – و اندکی هم ترسناک – اما چه تأثیری بر سلامت ما دارد؟ آیا ارواح هوش مصنوعی کمک یا مانعی برای روند سوگواری هستند؟
نایجل مولیگان میگوید که:به عنوان یک روان درمانگر که در حال تحقیق در مورد چگونگی استفاده از فناوری هوش مصنوعی برای تقویت مداخلات درمانی است، من شیفته ظهور رباتهای ارواح هستم. اما من در مورد اثرات بالقوه این فناوری بر سلامت روان افرادی که از آن استفاده میکنند، به ویژه آنهایی که سوگوار هستند، نگرانی من بیش از دیگران است.
احیای مردهها بهعنوان آواتار، این پتانسیل را دارد که آسیبهای بیشتری به جای سود در بر داشته باشد، و حتی بیشتر سردرگمی، استرس، افسردگی، پارانویا و در برخی موارد روانپریشی ایجاد کند.
پیشرفتهای اخیر در هوش مصنوعی (AI) منجر به ایجاد ChatGPT و دیگر رباتهای چت شده است که میتوانند به کاربران اجازه دهد مکالمات پیچیدهای مانند انسان داشته باشند.
با استفاده از فناوری جعل عمیق یا ژرف، نرمافزار هوش مصنوعی میتواند یک نمایش مجازی تعاملی از یک فرد متوفی با استفاده از محتوای دیجیتالی آنها مانند عکسها، ایمیلها و فیلمها ایجاد کند.
برخی از این کارها همین چند سال پیش تدر حد فیلمهای علمی تخیلی بودند، اما اکنون به یک واقعیت علمی تبدیل شدهاند.
کمک یا مانع؟
ارواح دیجیتال میتوانند با کمک داغدیدگان برای برقراری ارتباط مجدد با عزیزان از دست رفته، آرامش بخش باشند. آنها میتوانند فرصتی را برای کاربر فراهم کنند تا برخی چیزها را بیان کند یا سؤالاتی بپرسد که در زمانی که فرد متوفی زنده بود هرگز فرصتی برای ابراز آن نداشتند.
اما شباهت عجیب رباتهای ارواح به یک عزیز از دست رفته ممکن است آنقدر که به نظر میرسد مثبت نباشد. تحقیقات نشان میدهد که رباتهای انساننما باید فقط به عنوان کمکی موقت برای عزاداری استفاده شوند تا از وابستگی عاطفی مضر بالقوه به این فناوری جلوگیری شود.
ارواح هوش مصنوعی با تداخل در روند غم و اندوه میتوانند برای سلامت روان افراد مضر باشند.
سپری کردن غم و اندوه زمان میبرد و مراحل مختلفی وجود دارد که میتواند طی سالیان متمادی اتفاق بیفتد. هنگامی که به تازگی انسانها سوگوار میشوند، ممکن است به طور مکرر به عزیز متوفی خود فکر کنند. آنها ممکن است خاطرات قدیمی خود را به یاد بیاورند و حتی رویاهیا تشدیدشدهای را تجربه کند.
زیگموند فروید، روانکاو، به چگونگی واکنش انسانها به تجربه از دست دادن توجه داشت. او به مشکلات بالقوه مضاعف برای کسانی که سوگوار هستند،در صورت وجود افکار منفی در مورد مرگ اشاره کرد.
به عنوان مثال، اگر شخصی نسبت به کسی احساسات دوسویه داشت و او بمیرد، ممکن است فرد با احساس گناه باقی بماند. یا اگر فردی با شرایط وحشتناکی مانند قتل بمیرد، ممکن است برای یک فرد غمگین پذیرش آن دشوارتر باشد.
فروید از آن به عنوان “مالیخولیا” یاد میکند، اما میتوان آن را “غم پیچیده” هم نامید. در برخی موارد شدید، ممکن است فرد توهم کند که فرد مرده را میبیند و زندگی خود را از سر گرفته است. رباتهای ارواح هوش مصنوعی میتوانند به کسی که غم و اندوه پیچیدهای را تجربه میکنند آسیب بیشتری وارد کنند و ممکن است مشکلات مرتبط مانند توهم را تشدید کنند.
جنبه ترسناک چت بات
همچنین این خطر وجود دارد که این رباتهای ارواح چیزهای مضری بگویند یا در عزاداری به کسی توصیه بدی کنند. نرمافزارهای مولد مشابه مانند چت رباتهای ChatGPT در حال حاضر به دلیل ارائه اطلاعات نادرست به کاربران به طور گسترده مورد انتقاد قرار گرفتهاند.
تصور کنید اگر فناوری هوش مصنوعی سرکشی کند و شروع به بیان اظهارات نامناسب به کاربر کند، چه میشود؟
این مشکل را روزنامهنگاری به نام کوین روز در سال ۲۰۲۳ تجربه کرد، زمانی که یک ربات چت بینگ سعی کرد او را مجبور به ترک همسرش کند. بسیار آزاردهنده خواهد بود اگر پسر یا دختر پدر متوفی از هوش مصنوعی بشوند که مورد علاقه پدرشان نبوده!
در یک سناریوی وخیمتر، اگر ربات روح به کاربر پیشنهاد دهد که به زندگی خود خاتمه بدهند یا باید کسی را بکشند یا به او آسیب برساند، اوضاع بسیار بدتر میشود. این ممکن است شبیه طرحی از یک فیلم ترسناک به نظر برسد، اما چندان دور از ذهن نیست. در سال ۲۰۲۳، حزب کارگر بریتانیا قانونی را برای جلوگیری از آموزش هوش مصنوعی برای تحریک خشونت وضع کرد.
این پاسخی بود به تلاش برای ترور ملکه در اوایل سال توسط مردی که توسط دوست دختر خود که در واقع یک چت بات بود و با او رابطه عاطفی و جنسی مجازی داشت، تشویق شده بود.
سازندگان ChatGPT در حال حاضر اذعان دارند که این نرمافزار خطا میکند و هنوز کاملاً قابل اعتماد نیست زیرا در مواردی اطلاعات را جعل میکند. چه کسی میداند که متون، ایمیلها یا ویدیوهای یک شخص چگونه تفسیر میشود و چه محتوایی توسط این فناوری هوش مصنوعی تولید میشود؟
در هر صورت، به نظر میرسد که صرف نظر از پیشرفت این فناوری، نیاز به نظارت قابل توجه و نظارت انسانی وجود خواهد داشت.
فراموشی یک چیز سالم است
ما از هماکنون بز امکانات غیرقابل تصوری نسبت به گذشته روبرو شدهایم.
دادهها را میتوان به طور نامحدود در ابر ذخیره کرد و همه چیز قابل بازیابی است و هیچ چیز واقعاً حذف نمیشود یا از بین نمیرود. فراموشی عنصر مهم سپری کردن غم و اندوه سالم است، اما برای فراموشی، افراد باید راههای جدید و معناداری برای یادآوری فرد متوفی بیابند.
سالگردها نقشی کلیدی در کمک به عزاداران ایفا میکنند تا نه تنها عزیزان از دست رفته را به یاد آورند، بلکه فرصتهایی برای نشان دادن فقدان به روشهای جدید پیدا کنند. تشریفات و نمادها میتوانند پایان چیزی را نشان دهند که به انسان اجازه میدهد به درستی به خاطر بسپارد، تا به درستی فراموش کند.
نایجل مولیگان، استادیار روان درمانی، دانشکده پرستاری، روان درمانی و سلامت جامعه، دانشگاه شهر دوبلین
منبع: The Conversation