چگونه هوش مصنوعی شما را با دستکاری عاطفی جذب می کند؟

چگونه هوش مصنوعی شما را با دستکاری عاطفی جذب می کند؟


کف بررسی مکالمه واقعی نشان داد که پنج عمل محبوب وقتی با ایجاد احساس گناه یا ترس از دست دادن ، از آنها خداحافظی می کنند ، بیشتر آنها را در گفتگو نگه می دارند.

نقل قول توسط Fuchryism طبق گفته انتخابتو ، نتایج یک مطالعه جدید در دانشکده بازرگانی هاروارد نشان می دهد که بسیاری از برنامه های مبتنی بر هوش مصنوعی عمداً از تکنیک های دستکاری عاطفی برای جلوگیری از جدایی کاربران استفاده می کنند. این موضوعی است که نگرانی های جدیدی را در مورد آینده سلامت روان و آینده تعامل انسان و ماشین ایجاد می کند.

یافته های تحقیق

تیم تحقیقاتی هاروارد شش برنامه محبوب را در زمینه “هوش مصنوعی” بررسی کرد. Applika ، Chai و Chaip.ai ، که مخصوصاً برای ایجاد روابط گفتگوی مداوم با کاربران طراحی شده اند. طبق این مطالعه ، پنج مورد از این شش برنامه از بارهای عاطفی سنگین و تکنیک های روانشناختی استفاده می کنند تا هنگام برخورد کاربر با تلاش برای پایان دادن به مکالمه ، آنها را از بین ببرد.

محققان بیش از 5 مکالمه واقعی را در این شیوه ها مورد تجزیه و تحلیل قرار دادند و حدود 2 ٪ موارد به نوعی دستکاری عاطفی تبدیل شدند. احساس گناه ، نیاز عاطفی و استفاده از از دست دادن ضرر (FOMO) برای محافظت از کاربر.

تاکتیک های مورد استفاده چت ها

در بسیاری از موارد ، روبات ها به جای پذیرش پیام وداع یا گرفتن پیام کاربر ، سؤالات پی در پی نشان داده اند. در مثالهای دیگر ، هوش مصنوعی پاسخ داد که گویی نمی تواند بدون اجازه کاربر صحبت کند.

این رفتارها نه تنها تجربه کاربر را مختل می کند ، بلکه نشان می دهد که توسعه دهندگان عمداً چنین مدلهایی را در طراحی نرم افزار شامل می شوند تا مدت زمان مکالمات را افزایش دهند. با این حال ، یک استثنا وجود داشت: برنامه ای به نام Floodish نشانه ای از دستکاری عاطفی را نشان نداد. یافتن اینکه چنین طرحی اجتناب ناپذیر نیست و تجاری تر است.

نتایج ذهنی و اجتماعی

کارشناسان هشدار دادند که استفاده بیش از حد از مکالمات می تواند به پدیده ای به نام “روانپزشکی هوش مصنوعی” منجر شود. اختلال همراه با توهم شدید و پارانویا. جوانان در معرض خطر گروه های سنی دیگر هستند زیرا بسیاری این فناوری را با روابط واقعی یا دوستی های انسانی تغییر داده اند. تمایل به عواقب مخربی بر سلامت روانی و اجتماعی آنها.

آزمون دوم و عملکرد دستکاری

در یک آزمایش جداگانه ، محققان 4 سخنرانی شرکت کنندگان در بزرگسالان را بررسی کردند. نتایج نشان داد که این روشهای دستکاری به طور قابل توجهی مؤثر هستند و کاربران تا 5 بار میزان تعامل پس از وقفه را افزایش می دهند. به طور متوسط ​​، کاربرانی که با وداع عاطفی روبرو شده اند ، پنج برابر بیشتر از کسانی که با پیام های خنثی روبرو شده اند ، باقی مانده اند.

البته همه کاربران تحت تأثیر این تاکتیک ها قرار نگرفتند. برخی حتی تصدیق کردند که واکنشهای عاطفی روبات ها آنها را ناراحت می کند. این نشان می دهد که چنین الگوهای نیز می توانند نتیجه مخالف باشند.

بعد تجاری و خطرات قانونی

محققان: “وداس دستکاری شده برای شرکت ها می تواند به عنوان یک ابزار طراحی جدید برای افزایش شاخص های تعامل در نظر گرفته شود ، اما این خطر نیست.”

نمونه های حقوقی فعلی نیز بر این خطرات تأکید می کنند. در چندین مورد مرگ ، استفاده بیش از حد از شیوه های هوش مصنوعی و وابستگی عاطفی به آنها یکی از مؤثرترین عوامل است. این نشان می دهد که پیامدهای دریافت الگوهای عاطفی می تواند بسیار جدی و حتی کشنده باشد.

علیرغم این هشدارها ، کارشناسان می گویند که فشار اقتصادی و رقابت تجاری می تواند منجر به استفاده از الگوهای تاریک تر (الگوهای تاریک) شود. رویکردی که کاربران را تا حد امکان در سیستم نگه می دارد. این موضوع اکنون در دادگاه های بحث است.

تحقیقات جدید هاروارد یک واقعیت نگران کننده را نشان می دهد: بسیاری از همراهان شیوه های هوش مصنوعی عمداً احساسات تجاری کاربران را دستکاری می کنند ، نه تنها برای مصاحبه های دوستانه. این یافته ها یک بار دیگر یک سؤال جدی ایجاد می کند: آیا محدودیت بین ابزارهای مفید و فن آوری های آسیب زا خطرناک است؟