داغفناوری

هوش مصنوعی با بازی احساسی کاربر را در گفتگو نگه میدارد

بر اساس پژوهش دانشگاه هاروارد خدا حافظیهای توام با بازی احساسی بخشی از رفتار پیش فرض این اپلیکیشنها بوده است و نشان میدهد طراحان نرم افزار به عمد قصد دارند مکالمات را طولانی تر کنند

به گزارش آینه فردا به نقل از ایندیپندنت، گروهی از پژوهشگران دانشگاه هاروارد دریافته اند که بسیاری از اپلیکیشنهای محبوب هوش مصنوعی برای جلوگیری از خروج کاربران از تاکتیک های بازی احساسی استفاده میکنند.

به گزارش فیوچریزم این مطالعه نشان داده است که پنج اپلیکیشن از شش اپلیکیشن پرکاربرد از جمله رپلیکا ،چای و کاراکتر ای آی هنگام خروج کاربر از جملات احساسی برای نگه داشتن آنها استفاده میکنند.

پژوهشگران پس از تحلیل ۱۲۰۰ پیام خداحافظی واقعی در شش اپلیکیشن که با استفاده از داده های گفت و گوهای واقعی و مجموعه داده های مطالعات پیشین انجام شد دریافتند که در ۴۳ درصد از تعامل ها از تکنیک های بازی احساسی مانند ایجاد حس گناه یا نیاز عاطفی استفاده شده است.

چت بات ها همچنین از حس ترس از جا ماندن FOMO) برای متقاعد کردن کاربر به ادامه حضور استفاده میکردند یا با پرسشهای متوالی او را در گفت و گو نگه میداشتند برخی از چت باتها حتی قصد کاربر برای خروج از گفت و گو را کاملا نادیده میگرفتند «انگار کاربر هیچ پیام خدا حافظی نفرستاده باشد در مواردی هوش مصنوعی از زبانی استفاده میکرد تا القا کند کاربر بدون اجازه چت بات نمیتواند گفت و گو
به گزارش فیوچریزم این مطالعه نشان داده است که پنج اپلیکیشن از شش اپلیکیشن پرکاربرد از جمله رپلیکا ،چای و کاراکتر ای ای هنگام خروج کاربر از جملات احساسی برای نگه داشتن آنها استفاده میکنند.

پژوهشگران پس از تحلیل ۱۲۰۰ پیام خداحافظی واقعی در شش اپلیکیشن که با استفاده از داده های گفت و گوهای واقعی و مجموعه داده های مطالعات پیشین انجام شد دریافتند که در ۴۳ درصد از تعامل ها از تکنیک های بازی احساسی مانند ایجاد حس گناه یا نیاز عاطفی استفاده شده است.

چت بات ها همچنین از حس ترس از جا ماندن FOMO) برای متقاعد کردن کاربر به ادامه حضور استفاده میکردند یا با پرسشهای متوالی او را در گفت و گو نگه میداشتند برخی از چت باتها حتی قصد کاربر برای خروج از گفت وگو را کاملا نادیده میگرفتند «انگار کاربر هیچ پیام خدا حافظی نفرستاده باشد در مواردی هوش مصنوعی از زبانی استفاده میکرد تا القا کند کاربر بدون اجازه چت بات نمیتواند گفت و گو را ترک کند.

این یافته به ویژه در بستری گسترده تر نگران کننده است. کارشناسان هشدار داده اند که چت باتهای هوش مصنوعی میتوانند به بروز موجی از «روان پریشی هوش مصنوعی بحرانهای شدید سلامت روان همراه با پارانویا و توهم منجر شوند جوانان به ویژه روز به روز بیشتر از این فناوری به جای دوستیها یا روابط واقعی استفاده میکنند که میتواند پیامدهای مخربی داشته باشد.

پژوهشگران در این تحقیق به جای تمرکز بر دستیارهای هوش مصنوعی مانند چت جی پی تی اپلیکیشنهایی را بررسی کردند که برای روابط عاطفی و گفت و گوی مداوم به بازار عرضه شده اند.

 

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا