همه ما از دست دادن عزیزان و اندوه را تجربه می‌کنیم. با این حال، تصور کنید که نیازی به خداحافظی با عزیزانتان نباشد، چرا که که بشود آن‌ها را به صورت مجازی بازسازی کرد تا بتوات با آنها مکالمه داشت و از احساس آن‌ها مطلع شد.

ارواح دیجیتال به کمک بازماندگان می آیند

به گزارش سلامت نیوز به نقل از یک پزشک به مناسبت تولد چهل سالگی کیم کارداشیان، همسر وقت او، کانیه وست، هولوگرام پدر مرده‌اش، رابرت کارداشیان را به او هدیه داد. گفته می‌شود کیم کارداشیان با ناباوری و خوشحالی به حضور مجازی پدرش در جشن تولدش واکنش نشان داده است. توانایی دیدن عزیزی که مدت‌ها مرده و دلتنگ شده بود، حرکت کردن و صحبت کردن دوباره، ممکن است آرامش بخش باشد.

به هر حال، احیای یکی از عزیزان متوفی ممکن است معجزه‌آسا به نظر برسد – و اندکی هم ترسناک – اما چه تأثیری بر سلامت ما دارد؟ آیا ارواح هوش مصنوعی کمک یا مانعی برای روند سوگواری هستند؟

نایجل مولیگان می‌گوید که:به عنوان یک روان درمانگر که در حال تحقیق در مورد چگونگی استفاده از فناوری هوش مصنوعی برای تقویت مداخلات درمانی است، من شیفته ظهور ربات‌های ارواح هستم. اما من در مورد اثرات بالقوه این فناوری بر سلامت روان افرادی که از آن استفاده می‌کنند، به ویژه آن‌هایی که سوگوار هستند، نگرانی من بیش از دیگران است.

احیای مرده‌ها به‌عنوان آواتار، این پتانسیل را دارد که آسیب‌های بیشتری به جای سود در بر داشته باشد، و حتی بیشتر سردرگمی، استرس، افسردگی، پارانویا و در برخی موارد روان‌پریشی ایجاد کند.

پیشرفت‌های اخیر در هوش مصنوعی (AI) منجر به ایجاد ChatGPT و دیگر ربات‌های چت شده است که می‌توانند به کاربران اجازه دهد مکالمات پیچیده‌ای مانند انسان داشته باشند.

با استفاده از فناوری جعل عمیق یا ژرف، نرم‌افزار هوش مصنوعی می‌تواند یک نمایش مجازی تعاملی از یک فرد متوفی با استفاده از محتوای دیجیتالی آن‌ها مانند عکس‌ها، ‌ایمیل‌ها و فیلم‌ها ایجاد کند.

برخی از این کارها همین چند سال پیش تدر حد فیلم‌های علمی تخیلی بودند، اما اکنون به یک واقعیت علمی تبدیل شده‌اند.

کمک یا مانع؟

ارواح دیجیتال می‌توانند با کمک داغ‌دیدگان برای برقراری ارتباط مجدد با عزیزان از دست رفته، آرامش بخش باشند. آن‌ها می‌توانند فرصتی را برای کاربر فراهم کنند تا برخی چیزها را بیان کند یا سؤالاتی بپرسد که در زمانی که فرد متوفی زنده بود هرگز فرصتی برای ابراز آن نداشتند.

اما شباهت عجیب ربات‌های ارواح به یک عزیز از دست رفته ممکن است آنقدر که به نظر می‌رسد مثبت نباشد. تحقیقات نشان می‌دهد که ربات‌های انسان‌نما باید فقط به عنوان کمکی موقت برای عزاداری استفاده شوند تا از وابستگی عاطفی مضر بالقوه به این فناوری جلوگیری شود.

ارواح هوش مصنوعی با تداخل در روند غم و اندوه می‌توانند برای سلامت روان افراد مضر باشند.

سپری کردن غم و اندوه زمان می‌برد و مراحل مختلفی وجود دارد که می‌تواند طی سالیان متمادی اتفاق بیفتد. هنگامی که به تازگی انسان‌ها سوگوار می‌شوند، ممکن است به طور مکرر به عزیز متوفی خود فکر کنند. آن‌ها ممکن است خاطرات قدیمی خود را به یاد بیاورند و حتی رویاهیا تشدیدشده‌ای را تجربه کند.

زیگموند فروید، روانکاو، به چگونگی واکنش انسان‌ها به تجربه از دست دادن توجه داشت. او به مشکلات بالقوه مضاعف برای کسانی که سوگوار هستند،در صورت وجود افکار منفی در مورد مرگ اشاره کرد.

به عنوان مثال، اگر شخصی نسبت به کسی احساسات دوسویه داشت و او بمیرد، ممکن است فرد با احساس گناه باقی بماند. یا اگر فردی با شرایط وحشتناکی مانند قتل بمیرد، ممکن است برای یک فرد غمگین پذیرش آن دشوارتر باشد.

فروید از آن به عنوان “مالیخولیا” یاد می‌کند، اما می‌توان آن را “غم پیچیده” هم نامید. در برخی موارد شدید، ممکن است فرد توهم کند که فرد مرده را می‌بیند و زندگی خود را از سر گرفته است. ربات‌های ارواح هوش مصنوعی می‌توانند به کسی که غم و اندوه پیچیده‌ای را تجربه می‌کنند آسیب بیشتری وارد کنند و ممکن است مشکلات مرتبط مانند توهم را تشدید کنند.

جنبه ترسناک چت بات

همچنین این خطر وجود دارد که این ربات‌های ارواح چیزهای مضری بگویند یا در عزاداری به کسی توصیه بدی کنند. نرم‌افزارهای مولد مشابه مانند چت ربات‌های ChatGPT در حال حاضر به دلیل ارائه اطلاعات نادرست به کاربران به طور گسترده مورد انتقاد قرار گرفته‌اند.

تصور کنید اگر فناوری هوش مصنوعی سرکشی کند و شروع به بیان اظهارات نامناسب به کاربر کند، چه می‌شود؟

این مشکل را روزنامه‌نگاری به نام کوین روز در سال ۲۰۲۳ تجربه کرد، زمانی که یک ربات چت بینگ سعی کرد او را مجبور به ترک همسرش کند. بسیار آزاردهنده خواهد بود اگر پسر یا دختر پدر متوفی از هوش مصنوعی بشوند که مورد علاقه پدرشان نبوده!

در یک سناریوی وخیم‌تر، اگر ربات روح به کاربر پیشنهاد دهد که به زندگی خود خاتمه بدهند یا باید کسی را بکشند یا به او آسیب برساند، اوضاع بسیار بدتر می‌شود. این ممکن است شبیه طرحی از یک فیلم ترسناک به نظر برسد، اما چندان دور از ذهن نیست. در سال ۲۰۲۳، حزب کارگر بریتانیا قانونی را برای جلوگیری از آموزش هوش مصنوعی برای تحریک خشونت وضع کرد.

این پاسخی بود به تلاش برای ترور ملکه در اوایل سال توسط مردی که توسط دوست دختر خود که در واقع یک چت بات بود و با او رابطه عاطفی و جنسی مجازی داشت، تشویق شده بود.

سازندگان ChatGPT در حال حاضر اذعان دارند که این نرم‌افزار خطا می‌کند و هنوز کاملاً قابل اعتماد نیست زیرا در مواردی اطلاعات را جعل می‌کند. چه کسی می‌داند که متون، ‌ایمیل‌ها یا ویدیوهای یک شخص چگونه تفسیر می‌شود و چه محتوایی توسط این فناوری هوش مصنوعی تولید می‌شود؟

در هر صورت، به نظر می‌رسد که صرف نظر از پیشرفت این فناوری، نیاز به نظارت قابل توجه و نظارت انسانی وجود خواهد داشت.

فراموشی یک چیز سالم است

ما از هم‌اکنون بز امکانات غیرقابل تصوری نسبت به گذشته روبرو شده‌ایم.

داده‌ها را می‌توان به طور نامحدود در ابر ذخیره کرد و همه چیز قابل بازیابی است و هیچ چیز واقعاً حذف نمی‌شود یا از بین نمی‌رود. فراموشی عنصر مهم سپری کردن غم و اندوه سالم است، اما برای فراموشی، افراد باید راه‌های جدید و معناداری برای یادآوری فرد متوفی بیابند.

سالگردها نقشی کلیدی در کمک به عزاداران ایفا می‌کنند تا نه تنها عزیزان از دست رفته را به یاد آورند، بلکه فرصت‌هایی برای نشان دادن فقدان به روش‌های جدید پیدا کنند. تشریفات و نمادها می‌توانند پایان چیزی را نشان دهند که به انسان اجازه می‌دهد به درستی به خاطر بسپارد، تا به درستی فراموش کند.

نایجل مولیگان، استادیار روان درمانی، دانشکده پرستاری، روان درمانی و سلامت جامعه، دانشگاه شهر دوبلین

منبع: The Conversation

برچسب‌ها