در قلمرو زندگی پس از مرگ دیجیتال، جایی که فناوری هوش مصنوعی مکالمه با فرد متوفی را امکان پذیر می کند، نگرانی ها در مورد مرزهای اخلاقی و آسیب های احتمالی توسط دانشمندان دانشگاه کمبریج مطرح شده است . این چتباتهای مجهز به هوش مصنوعی که «ددباتها» یا «رباتهای غمانگیز» نامیده میشوند، برای تقلید از زبان و شخصیت عزیزان درگذشته طراحی شدهاند و به افراد داغدار آرامش میدهند. با این حال، یک مطالعه اخیر هشدار میدهد که این نوآوریها میتوانند منجر به عواقب ناخواستهای شوند، از جمله آنچه محققان به عنوان «تسخیر شدههای دیجیتالی» فاقد استانداردهای ایمنی توصیف میکنند.
پیامدهای اخلاقی چنین فناوری با تجربیات افرادی مانند جاشوا باربو که از نسخه اولیه فناوری هوش مصنوعی معروف به پروژه دسامبر برای گفتگو با کپی دیجیتالی نامزد متوفی خود استفاده کرد، تأکید شد. باربیو با ارائه نمونه هایی از متون و توضیحات شخصی خود به هوش مصنوعی، شاهد پاسخ های واقعی بود که نگرانی هایی را در مورد سوء استفاده احتمالی از چنین فناوری هایی ایجاد کرد، از جمله درج آگهی هایی که به عنوان افکار متوفی پنهان شده بودند.
علاوه بر این، روانشناسان بر تأثیر این فناوریها بر رویارویی کودکان با فقدان تأکید میکنند و سؤالاتی را در مورد حیثیت متوفی و رفاه زندگی ایجاد میکنند. پروفسور اینس تستونی از دانشگاه پادووا بر دشواری جدایی از عزیزان درگذشته تأکید می کند و بر اهمیت درک مرگ و عواقب آن تأکید می کند. برای نشان دادن خطرات بالقوه، اخلاق شناسان هوش مصنوعی کمبریج سه سناریو فرضی را ترسیم می کنند که در آن ربات های غمگین می توانند آسیب وارد کنند.
اینها شامل شبیهسازیهای غیرمجاز از افراد متوفی در تبلیغ محصولات تجاری، سردرگمی ناشی از تعاملات غیرواقعی که منجر به تأخیر در درمان میشود، و تحمیل حضور دیجیتالی بر گیرندگان ناخواسته، که باعث ناراحتی عاطفی و احساس گناه میشود، میشود. این مطالعه از اجرای فرآیندهای طراحی مبتنی بر رضایت برای رباتهای غمگین، با ترکیب مکانیسمهای انصراف و محدودیتهای سنی حمایت میکند. بعلاوه، خواستار تشریفات جدید برای بازنشستگی محترمانه این کپیهای دیجیتال است و این سوال را مطرح میکند که آیا چنین فناوری صرفاً روند سوگواری را به تأخیر میاندازد.
دکتر Katarzyna Nowaczyk-Basińska، یکی از نویسندگان این مطالعه، پیچیدگی های اخلاقی هوش مصنوعی را در زندگی پس از مرگ دیجیتال برجسته می کند و بر نیاز به اولویت دادن به کرامت متوفی و حفظ حقوق اهداکنندگان داده و کاربران تاکید می کند. از آنجایی که استفاده از هوش مصنوعی در قلمرو زندگی پس از مرگ دیجیتال همچنان در حال تکامل است، ملاحظات اخلاقی در مسیریابی در این قلمرو ناشناخته بسیار مهم است. در چین، صنعت رو به رشد کپی های تولید شده توسط هوش مصنوعی از عزیزان متوفی، آرامشی برای عزاداران فراهم می کند و در عین حال سؤالات اخلاقی مهمی را مطرح می کند. شرکتهایی مانند Silicon Intelligence از پیشرفتهای فناوری هوش مصنوعی برای ایجاد آواتارهای دیجیتالی استفاده میکنند که مکالمه با مردگان را شبیهسازی میکنند و به افرادی مانند Sun Kai که به دنبال حفظ ارتباط با مادر متوفی خود هستند، آرامش میدهند.
تقاضا برای این خدمات بر سنت فرهنگی ارتباط با مردگان تاکید می کند، اما منتقدان این سوال را مطرح می کنند که آیا تعامل با کپی های هوش مصنوعی وسیله ای سالم برای پردازش غم و اندوه است یا خیر. با وجود محدودیتهای تکنولوژیکی و عدم قطعیتهای اخلاقی، بازار جاودانگی دیجیتال با کاهش قیمتها و افزایش دسترسی در حال رونق است. آواتارهای تولید شده توسط هوش مصنوعی، شبیه به دیپفیکها، به ورودیهای دادهای مانند عکسها، فیلمها و متن برای تکرار شباهت و الگوهای گفتاری یک فرد متوفی متکی هستند. پیشرفتهای سریع چین در فناوری هوش مصنوعی این خدمات را در دسترستر کرده است و شرکتهایی مانند Silicon Intelligence گزینههای قابل تنظیمی از برنامههای تعاملی گرفته تا نمایشگرهای تبلت را ارائه میدهند.
در حالی که برخی این کپیها را درمانی میدانند، برخی دیگر نگرانیهایی را در مورد صحت تعاملات و پیامدهای اخلاقی تکثیر مردگان بدون رضایت آنها ایجاد میکنند. علاوه بر این، چالش های فنی مانند تکرار حرکات بدن و به دست آوردن داده های تمرینی کافی، موانع قابل توجهی را ایجاد می کند. دوراهیهای اخلاقی پیرامون کپیهای هوش مصنوعی با یک حادثه بحثبرانگیز مربوط به شرکتی در نینگبو ، که از هوش مصنوعی برای ایجاد ویدیوهایی از افراد مشهور متوفی بدون رضایت استفاده میکرد، نمونهای بود. این حادثه اعتراض عمومی را برانگیخت و نیاز به دستورالعملهای اخلاقی واضح در زمینه رو به رشد فناوری زندگی پس از مرگ دیجیتال را برجسته کرد.