یادداشت؛
ارواح مصنوعی کپی دیجیتالی از افرادی هستند که از دنیا رفتهاند. آنها میتوانند حرف بزنند، نصیحت کنند و سعی کنند مانند شخص درگذشته رفتار کنند.
خبرگزاری علم و فناوری آنا، نوید فرخی؛ مرگ به عنوان یک فرایند طبیعی بخشی از چرخه حیات بشر است که تمام انسانها یا آن را تجربه کرده و یا خواهند کرد. پیشرفتهای اخیر در هوش مصنوعی امکان احیای عزیزان ازدسترفته را در قالب «ارواح مصنوعی» میسر میکند. با این حال محققان نسبت به خطرات بالقوه این فناوری برای سلامت روان هشدار دادهاند. آنها معتقدند بهکارگیری هوش مصنوعی برای تقلید از مدل شخصیتی درگذشتگان (بر اساس ردپای دیجیتالی آنها) میتواند روند طبیعی سوگواری را مختل کند، وابستگیهای ناسالم به وجود آورد و حتی به اشکال جدیدی از آیینهای مذهبی منتهی شود!
این موضوع در بطن خود، سؤالات اخلاقی و فلسفی عمیقی را پدید میآورد. فناوری همیشه جذاب بوده و اینکه بتوانیم ظاهری از جاودانگی (یا تداوم حضور پس از مرگ) را ارائه دهیم، کمابیش مفهوم تازهای است. هوش مصنوعی به لطف کلانداده (براساس ارتباطات متنی فرد متوفی و همچنین تعاملاتش در شبکههای اجتماعی) میتواند رفتاری را نمایش دهد که به مدل شخصیتی فرد فوتشده نزدیک است. با این حال نگرانی اصلی در رابطه با این ارواح مصنوعی تأثیر آنها بر سلامت روان است. سوگواری فرآیندی عمیقاً شخصی و پیچیده است که در بین افراد مختلف با هم فرق میکند. خیلی ساده حضور روحهای دیجیتالی میتواند این روند را مختل کند و سناریویی را پدید بیاورد که در آن افراد به جای حرکت روبهجلو، در گذشته گرفتار شوند. به عبارت دیگر مردم به دلیل حضور این ارواح مصنوعی نتوانند از واقعیت مرگ عزیزشان عبور کنند. خطر وابستگی به این نهادهای هوش مصنوعی کاملاً وجود دارد و به طور بالقوه به انزوای فرد و جدا شدنش از واقعیت منجر میشود.
علاوه بر این، ظرفیت این ارواح مصنوعی در شباهت به فرد متوفی نیز محل مناقشه است. ما میدانیم ارواح مصنوعی قرار است کپی دیجیتالی از افرادی باشند که از دنیا رفتهاند. آنها میتوانند حرف بزنند، نصیحت کنند و سعی کنند مانند آن شخص رفتار کنند، اما اینجا یک مشکل بزرگ وجود دارد. گاهی اوقات چیزی که این هوش مصنوعی میگوید یا انجام میدهد ممکن است واقعاً با چیزی که شخص واقعی میگفته یا انجام میداده مطابقت نداشته باشد. اگر یک روح مصنوعی چیزی آزاردهنده یا نادرست بگوید، به احساسات افرادی که شخص واقعی را میشناختند آسیب خواهد رسید. این امر به نوبهی خود به چند دلیل نگرانکننده است. اول اینکه پیشبینی اینکه روح مصنوعی چه کاری انجام خواهد داد دشوار است. آنها گرچه برای تقلید ساخته شدهاند، باز هم میتوانند کارهایی غیرمنتظره انجام دهند. غیرقابل پیشبینی بودن روح مصنوعی میتواند مشکلساز باشد زیرا بازماندگان (که سوگوارند و از نظر روانی در وضعیت بدی قرار دارند) ممکن است به این چتباتها اعتماد کنند و برایشان در ذهن خود دقیقاً جایگاهی مشابه جایگاه عزیز از دسترفته قائل باشند. اینجا اگر هوش مصنوعی به گونهای متفاوت عمل کند، میتواند احساسات بازماندگان را جریحهدار کرده و یا حتی به طریقی مضر باشد.
بحث دیگر جنبهی اخلاقی ماجراست. استفاده از هوش مصنوعی برای احیای دیجیتالی مُردگان، سؤالاتی را در مورد شأن و کرامت انسان و همچنین حریم خصوصی افراد ایجاد میکند. آیا درست است یک نسخه دیجیتالی از کسی بسازیم که دار فانی را وداع گفته آن هم بدون اینکه بدانیم خودش به چنین کاری رضایت میداده است یا خیر.
از نظر فلسفی این پیشرفت فناوری میتواند به بازتعریف دو مفهوم منجر شود. این مفاهیم عبارتند از هویت فردی و جاودانگی. فرض کنید فناوری به درجهای برسد که واقعاً روح دیجیتالی فرد با خود او از نظر رفتاری مو نزند. حال آیا انعکاس دیجیتالی فردی که دنیا را ترک کرده است تا اندازهای خواهد بود که منعکسکننده ذات خود او در نظر گرفته شود؟ نقش حافظه در اینجا کجاست؟ بیشک خاطرات در نحوه یادآوری و تکریم فردی متوفی مؤثر است. آیا ایجاد یک آواتار دیجیتال میتواند خاطرات واقعی یک شخص را حفظ کند. قابل حدس است که هوش مصنوعی با شبیهسازی خاطرات تا حدودی خود را تکامل میدهد اما باز هم ممکن است خاطرات خیلی خصوصی وجود داشته باشد که الگوریتمها قادر به پیشبینی آن نباشند. آنگاه ممکن است روح مصنوعی به طور بالقوه از ماهیت واقعی فرد منحرف شود.
ماهیت روابط انسانی بسیار فیزیکی است. پیوندها و ارتباطاتی که با دیگران شکل میدهیم، عمیقاً با حضور فیزیکی و تماس جسمانی در هم تنیده است. هوش مصنوعی حداقل در وضعیت فعلی نمیتواند تمام این احساسات را تنها از طریق متن در انسان برانگیزاند. اگر اندروید نیز تا سرحد شباهت صددرصدی به انسان ساخته شود نیز امکان دره وهمی وجود دارد. یک ماکت هوش مصنوعی، صرف نظر از اینکه چقدر پیچیده و دقیق است، فاقد عمق و آن حس انسانیِ لازم است.
هشدار بروبیکر (Jed Brubaker) در مقاله نیچر راجع به احتمال خداگونهشدن هوش مصنوعی یا ایجاد جنبشهای مذهبی جدید قابل توجه است. گرایش انسان به جستجوی آرامش در مواجهه با مرگ موضوعی است که در بسیاری از ادیان محوریت دارد. تحقیقات متعددی نشان داده است که عوام همواره به دنبال جوابهای ساده برای پرسشهای پیچیده هستند. از این بابت هوش مصنوعی همانطور که میتواند ارواحسازی کند، در معنویتسازی نیز ظرفیتهای ترسناکی دارد. در مقاله نیچر نیز بروبیکر نسبت به اینکه هوش مصنوعی جلوتر میتواند ادعای خدایی کند یا با هر نیتی ادیانی جدید راه بیندازد تلویحاً ابراز نگرانی کرده است. معنویتسازی هوش مصنوعی لزوماً از طرف ماشین شروع نخواهد شد! خودِ مردم ممکن است در طلب آرامش (یا برای رسیدن به صلح درونی یا مشاوره گرفتن و …) این نقش را به ماشین بدهند و آن را در چنین جایگاهی بگذارند. در صورتی که افراد به هوش مصنوعی به عنوان منبع حقیقت معنوی نگاه کنند آیا باید نگران این بود که این هوش مصنوعی میتواند آداب جایگزینی برای اعمال سنتیِ مذهبی وضع کند؟
ظهور ارواح مصنوعی به تدوین مقررات و دستورالعملهای اخلاقی نیاز دارد. در گام اول رضایت افراد برای اینکه چنین یادبودی از آنها ساخته شود باید سنگبنای هر گونه تحقیق و احیاناً توسعهای در این زمینه باشد. احیای فوتشدگان در قالب چتبات از جنبهی قابلیتهای فناوریِ مدرن مسئلهای درخشان است. با این حال باید در تقاطع فناوری و عمیقترین جنبههای تجربه بشری گامها را با نهایت دقت و حتی وسواس برداشت. در حالی که در این قلمروی ناشناخته حرکت میکنیم، باید تعادل را در میل به پیشرفت و حفظ ارزشها و کرامت انسانی و حریم شخصی برقرار کنیم. وقتی عزیزی میمیرد، حفرهای بزرگ در قلب نزدیکان به وجود میآید که نمیتوان آن را به سادگی پر کرد. احساس غم و اندوه و دلتنگی برای کسی که مُرده بخشی طبیعی از سوگواری است. روح مصنوعی میتواند باعث شود که برخی با شنیدن صدای عزیزشان احساس بهتری داشته باشند اما همه ما میدانیم که هوش مصنوعی واقعاً آن فردی که از دنیارفته نیست و نمی تواند باشد.