وقتی اخلاق بیاحساس میشود؛ مقایسه هوش مصنوعی با روانپریشی
هوشهای مصنوعی فاقد آگاهیای هستند که به روانپریشها امکان انتخاب اخلاقی میدهد و این یک شکاف حیاتی است.
به گزارش پارسینه و به نقل از psychologytoday، روانپریش کسی است که توانایی درک درست و غلط از منظر اخلاقی را ندارد. او میداند که مثلاً هل دادن یک زن سالمند برای جلو زدن در صف دستگاه خودپرداز از نظر اجتماعی ناپسند است، اما هیچ احساسی همزمان در او شکل نمیگیرد که به او بگوید این کار از نظر اخلاقی اشتباه است. برای روانپریشها هیچچیز از نظر اخلاقی اشتباه «احساس» نمیشود.
اگرچه سایکوپاتی بهعنوان یک تشخیص رسمی در DSM-5 وجود ندارد، اما معمولاً برای توصیف اختلالاتی به کار میرود که با فقدان احساسات اخلاقی همراهاند. برای بسیاری، رفتار هوشهای مصنوعی بهویژه مدلهای زبانی بزرگ با این تعریف از روانپریشی همخوانی دارد. هوش مصنوعی، که چیزی جز تولیدکنندههای احتمالاتی متن نیستند، فاقد ظرفیت زیستی برای تجربه هر نوع احساسی هستند، چه برسد به احساسات اخلاقی. بنابراین، رفتار زبانی آنها صرفاً بر اساس قواعد و نه احساسات شکل میگیرد.
در نگاه اول، این قیاس منطقی به نظر میرسد. همانطور که الینا نرانتزی اشاره میکند، هوش مصنوعی «غیراخلاقی اما عقلانی» است. یعنی میتوان آن را طوری برنامهریزی کرد که تصمیماتی عقلانی بگیرد که با قواعد اخلاقی تعریفشده توسط انسان همخوانی داشته باشد. مثلاً میتوان خودروی خودران را طوری برنامهریزی کرد که برای نجات گروهی از کودکان، به تیر چراغ برق برخورد کند و راننده را قربانی کند. این یک محاسبه سادهی فایدهگرایانه در مواجهه با یک دوراهی اخلاقی است. اما نکته مهم این است که این تصمیم از احساس درونی درباره درست یا غلط بودن ناشی نمیشود. هوش مصنوعی نمیتواند غم یا درد را تجربه کند، و بنابراین نمیتواند پیامدهای احساسی (و در نتیجه اخلاقی) زیر گرفتن یک کودک را شبیهسازی کند.
این موضوع در مورد روانپریشها نیز صدق میکند. آنها بهطور مشهور فاقد ظرفیت همدلی هستند و نمیتوانند تصور کنند که زن سالمند هنگام هل داده شدن چه احساسی دارد یا کودک هنگام زیر گرفته شدن چه رنجی میکشد. مانند هوش مصنوعی، آنها باید بهطور صریح آموزش ببینند که این کارها از منظر عقلانی اشتباه هستند.
هم هوش مصنوعی و هم روانپریشها قادرند حضور احساسات اخلاقی را تقلید کنند. همانطور که فیلسوف کاترین میسلهورن اشاره میکند، «با وجود ناتوانی در احساس همدلی، هر دو قادرند احساسات را بر اساس نشانههای عینی تشخیص دهند، همدلی را تقلید کنند و از این توانایی برای اهداف فریبکارانه استفاده کنند.»
به همین دلایل، ممکن است وسوسه شویم که هوش مصنوعی را در دسته روانپریشها قرار دهیم. اما ماجرا پیچیدهتر از این است. هوش مصنوعی روانپریش نیست، بلکه چیزی کاملاً متفاوت است.
نکته مهمی در ذهن انسان وجود دارد که این قیاس را پیچیده میکند. برخلاف هوش مصنوعی، روانپریشها دارای آگاهی هستند. آنها میتوانند افکار و احساسات خود (یا فقدان آنها) را از منظر فراشناختی تجربه و تحلیل کنند. آنها میدانند که روانپریش هستند و میتوانند درباره این واقعیت تأمل کنند. در نتیجه، میتوانند تصمیمی آگاهانه برای رفتار اخلاقی بگیرند، بر اساس معیارهایی که خودشان تعیین میکنند. روانپریشها میتوانند و اغلب نیز چنین میکنند زندگیای کاملاً اخلاقی داشته باشند، بدون آنکه هرگز احساسات اخلاقی را تجربه کنند، به لطف مجموعهای از ظرفیتهای شناختی دیگر که در اختیار دارند.
اما هوش مصنوعی فاقد تمام این ظرفیتهاست. مفهوم «آسیب» برای آن بیمعناست. همانطور که نرانتزی اشاره میکند: «برای درک معنای آسیب رساندن به کسی، باید تجربهای از درد داشته باشید. هوشهای مصنوعی، بنابراین، از اساس از داشتن احساسات اخلاقی محروماند، در حالی که روانپریشها، بهعنوان انسانهای دارای آگاهی، میتوانند در اصل احساسات اخلاقی را تجربه کنند اما بهطور پاتولوژیک این کار را نمیکنند.» روانپریشها میتوانند بهصورت عقلانی و آگاهانه ماهیت نقص خود را درک کنند، قیاسهای جدیدی بر اساس ظرفیتهای موجود خود بسازند و رفتارشان را با توجه به آن آگاهی تغییر دهند.
هوش مصنوعی نمیتواند چنین کاری کند.
بنابراین، هوش مصنوعی روانپریش نیست، بلکه چیزی کاملاً متفاوت است. آنها نمیتوانند درباره حالات ذهنی درونی خود تأمل کنند. نمیتوانند از منظر اولشخص درباره اخلاق استدلال کنند. این بدان معناست که خطر بالقوهای وجود دارد: برخلاف روانپریش، هوش مصنوعی ممکن است به نتیجهای کاملاً عقلانی برسد که بر اساس پارامترهای کاریاش منطقی است، اما منجر به آسیب یا رنج برای انسان شود آسیبی که هوش مصنوعی نه میفهمد و نه میتواند در هیچ سطحی درک کند.
در مقابل، روانپریش حداقل میتواند از تفکر خود فاصله بگیرد و پیامدهای واقعی اعمالش را درک کند و بسنجد که آیا با اهدافش مثلاً آسیب نرساندن همخوانی دارد یا نه.
از یک سو، این قیاس مفید است، زیرا همانطور که نرانتزی میگوید: «برای تولید رفتار اخلاقی، احساسات اخلاقی الزامی نیستند.» اما باید بپذیریم که وضعیت «تقریباً روانپریش اما نه کاملاً» هوش مصنوعی، یک خطر بالقوه است. ما واقعاً نمیدانیم هوشهای مصنوعی چگونه به تصمیمات اخلاقی میرسند. آنها در این زمینه جعبههای سیاه هستند؛ فاقد آگاهی، شعور و فراشناختی که به ما اجازه میدهد حداقل بفهمیم یک روانپریش چه فکری میکند.
و اگر از هوش مصنوعی در حوزههایی استفاده کنیم که بهطور سنتی نیازمند شناخت اجتماعی و قضاوت اخلاقی هستند مانند سلامت، آموزش، رواندرمانی یا مراقبت از کودکان ممکن است از تصمیمات غیراخلاقی آنها که صرفاً بر اساس منطق گرفته شده، غافلگیر شویم. غافلگیر شویم به شکلی که اگر با یک روانپریش واقعی طرف بودیم، شاید نمیشد.
ارسال نظر