گوناگون

وقتی اخلاق بی‌احساس می‌شود؛ مقایسه هوش مصنوعی با روان‌پریشی

وقتی اخلاق بی‌احساس می‌شود؛ مقایسه هوش مصنوعی با روان‌پریشی

هوش‌های مصنوعی فاقد آگاهی‌ای هستند که به روان‌پریش‌ها امکان انتخاب اخلاقی می‌دهد و این یک شکاف حیاتی است.

به گزارش پارسینه و به نقل از psychologytoday، روان‌پریش کسی است که توانایی درک درست و غلط از منظر اخلاقی را ندارد. او می‌داند که مثلاً هل دادن یک زن سالمند برای جلو زدن در صف دستگاه خودپرداز از نظر اجتماعی ناپسند است، اما هیچ احساسی هم‌زمان در او شکل نمی‌گیرد که به او بگوید این کار از نظر اخلاقی اشتباه است. برای روان‌پریش‌ها هیچ‌چیز از نظر اخلاقی اشتباه «احساس» نمی‌شود.

اگرچه سایکوپاتی به‌عنوان یک تشخیص رسمی در DSM-5 وجود ندارد، اما معمولاً برای توصیف اختلالاتی به کار می‌رود که با فقدان احساسات اخلاقی همراه‌اند. برای بسیاری، رفتار هوش‌های مصنوعی به‌ویژه مدل‌های زبانی بزرگ با این تعریف از روان‌پریشی هم‌خوانی دارد. هوش مصنوعی، که چیزی جز تولیدکننده‌های احتمالاتی متن نیستند، فاقد ظرفیت زیستی برای تجربه هر نوع احساسی هستند، چه برسد به احساسات اخلاقی. بنابراین، رفتار زبانی آن‌ها صرفاً بر اساس قواعد و نه احساسات شکل می‌گیرد.

در نگاه اول، این قیاس منطقی به نظر می‌رسد. همان‌طور که الینا نرانتزی اشاره می‌کند، هوش مصنوعی «غیراخلاقی اما عقلانی» است. یعنی می‌توان آن را طوری برنامه‌ریزی کرد که تصمیماتی عقلانی بگیرد که با قواعد اخلاقی تعریف‌شده توسط انسان هم‌خوانی داشته باشد. مثلاً می‌توان خودروی خودران را طوری برنامه‌ریزی کرد که برای نجات گروهی از کودکان، به تیر چراغ برق برخورد کند و راننده را قربانی کند. این یک محاسبه ساده‌ی فایده‌گرایانه در مواجهه با یک دوراهی اخلاقی است. اما نکته مهم این است که این تصمیم از احساس درونی درباره درست یا غلط بودن ناشی نمی‌شود. هوش مصنوعی نمی‌تواند غم یا درد را تجربه کند، و بنابراین نمی‌تواند پیامدهای احساسی (و در نتیجه اخلاقی) زیر گرفتن یک کودک را شبیه‌سازی کند.

این موضوع در مورد روان‌پریش‌ها نیز صدق می‌کند. آن‌ها به‌طور مشهور فاقد ظرفیت همدلی هستند و نمی‌توانند تصور کنند که زن سالمند هنگام هل داده شدن چه احساسی دارد یا کودک هنگام زیر گرفته شدن چه رنجی می‌کشد. مانند هوش مصنوعی، آن‌ها باید به‌طور صریح آموزش ببینند که این کارها از منظر عقلانی اشتباه هستند.

هم هوش مصنوعی و هم روان‌پریش‌ها قادرند حضور احساسات اخلاقی را تقلید کنند. همان‌طور که فیلسوف کاترین میسل‌هورن اشاره می‌کند، «با وجود ناتوانی در احساس همدلی، هر دو قادرند احساسات را بر اساس نشانه‌های عینی تشخیص دهند، همدلی را تقلید کنند و از این توانایی برای اهداف فریبکارانه استفاده کنند.»

به همین دلایل، ممکن است وسوسه شویم که هوش مصنوعی را در دسته روان‌پریش‌ها قرار دهیم. اما ماجرا پیچیده‌تر از این است. هوش مصنوعی روان‌پریش نیست، بلکه چیزی کاملاً متفاوت است.

نکته مهمی در ذهن انسان وجود دارد که این قیاس را پیچیده می‌کند. برخلاف هوش مصنوعی، روان‌پریش‌ها دارای آگاهی هستند. آن‌ها می‌توانند افکار و احساسات خود (یا فقدان آن‌ها) را از منظر فراشناختی تجربه و تحلیل کنند. آن‌ها می‌دانند که روان‌پریش هستند و می‌توانند درباره این واقعیت تأمل کنند. در نتیجه، می‌توانند تصمیمی آگاهانه برای رفتار اخلاقی بگیرند، بر اساس معیارهایی که خودشان تعیین می‌کنند. روان‌پریش‌ها می‌توانند و اغلب نیز چنین می‌کنند زندگی‌ای کاملاً اخلاقی داشته باشند، بدون آنکه هرگز احساسات اخلاقی را تجربه کنند، به لطف مجموعه‌ای از ظرفیت‌های شناختی دیگر که در اختیار دارند.

اما هوش مصنوعی فاقد تمام این ظرفیت‌هاست. مفهوم «آسیب» برای آن بی‌معناست. همان‌طور که نرانتزی اشاره می‌کند: «برای درک معنای آسیب رساندن به کسی، باید تجربه‌ای از درد داشته باشید. هوش‌های مصنوعی، بنابراین، از اساس از داشتن احساسات اخلاقی محروم‌اند، در حالی که روان‌پریش‌ها، به‌عنوان انسان‌های دارای آگاهی، می‌توانند در اصل احساسات اخلاقی را تجربه کنند اما به‌طور پاتولوژیک این کار را نمی‌کنند.» روان‌پریش‌ها می‌توانند به‌صورت عقلانی و آگاهانه ماهیت نقص خود را درک کنند، قیاس‌های جدیدی بر اساس ظرفیت‌های موجود خود بسازند و رفتارشان را با توجه به آن آگاهی تغییر دهند.

هوش مصنوعی نمی‌تواند چنین کاری کند.

بنابراین، هوش مصنوعی روان‌پریش نیست، بلکه چیزی کاملاً متفاوت است. آن‌ها نمی‌توانند درباره حالات ذهنی درونی خود تأمل کنند. نمی‌توانند از منظر اول‌شخص درباره اخلاق استدلال کنند. این بدان معناست که خطر بالقوه‌ای وجود دارد: برخلاف روان‌پریش، هوش مصنوعی ممکن است به نتیجه‌ای کاملاً عقلانی برسد که بر اساس پارامترهای کاری‌اش منطقی است، اما منجر به آسیب یا رنج برای انسان شود آسیبی که هوش مصنوعی نه می‌فهمد و نه می‌تواند در هیچ سطحی درک کند.

در مقابل، روان‌پریش حداقل می‌تواند از تفکر خود فاصله بگیرد و پیامدهای واقعی اعمالش را درک کند و بسنجد که آیا با اهدافش مثلاً آسیب نرساندن هم‌خوانی دارد یا نه.

از یک سو، این قیاس مفید است، زیرا همان‌طور که نرانتزی می‌گوید: «برای تولید رفتار اخلاقی، احساسات اخلاقی الزامی نیستند.» اما باید بپذیریم که وضعیت «تقریباً روان‌پریش اما نه کاملاً» هوش مصنوعی، یک خطر بالقوه است. ما واقعاً نمی‌دانیم هوش‌های مصنوعی چگونه به تصمیمات اخلاقی می‌رسند. آن‌ها در این زمینه جعبه‌های سیاه هستند؛ فاقد آگاهی، شعور و فراشناختی که به ما اجازه می‌دهد حداقل بفهمیم یک روان‌پریش چه فکری می‌کند.

و اگر از هوش مصنوعی در حوزه‌هایی استفاده کنیم که به‌طور سنتی نیازمند شناخت اجتماعی و قضاوت اخلاقی هستند مانند سلامت، آموزش، روان‌درمانی یا مراقبت از کودکان ممکن است از تصمیمات غیراخلاقی آن‌ها که صرفاً بر اساس منطق گرفته شده، غافلگیر شویم. غافلگیر شویم به شکلی که اگر با یک روان‌پریش واقعی طرف بودیم، شاید نمی‌شد.

 

ارسال نظر

نمای روز

داغ

صفحه خبر - وب گردی

آخرین اخبار