ترس مردم از وجود ChatGPT؛ از کجا

چرا هوش مصنوعی ما را به دره عجیب و غریب می برد؟


از ایجاد ایمیل‌های ChatGPT گرفته تا سیستم‌های تشخیص بیماری، حضور هوش مصنوعی در زندگی روزمره دیگر یک داستان علمی تخیلی نیست. با این حال، اکثر ما وقتی با این فناوری روبرو می شویم، احساس اضطراب و ناراحتی می کنیم. این واکنش فقط یک مسئله فنی نیست، بلکه بر اساس ماهیت وجود ما به عنوان انسان است.

پدیده جعبه سیاه

به گزارش ایرنا به نقل از سایت Live Science، ما به سیستم هایی که می فهمیم اعتماد داریم. وسایل نقلیه معمولی برای ما آشنا هستند: کلید را می چرخانیم و ماشین روشن می شود. با این حال، بسیاری از سیستم های هوش مصنوعی مانند جعبه سیاه عمل می کنند. ما بدون درک منطق چیزی می نویسیم و پاسخ می گیریم. این ناآگاهی روانی ما را آزار می دهد.

انسان گرایی و انتظارات نادرست

می دانیم که هوش مصنوعی هیچ احساسی ندارد، اما ناخودآگاه ویژگی های انسانی را به آن نسبت می دهیم. این احساس عجیبی به ما می دهد که ChatGPT اینقدر مودبانه پاسخ داد. هنگامی که یک سیستم توصیه دقیقاً آنچه را دوست داریم تشخیص می دهد، این را به عنوان تجاوز به حریم خصوصی می بینیم.

تهدید هویت و مقاومت در برابر تغییر

برای بسیاری از متخصصان، هوش مصنوعی تنها یک ابزار نیست، بلکه یک تهدید هویت است. معلمان، نویسندگان و طراحان به طور ناگهانی با ابزارهایی مواجه می شوند که می توانند برخی از مهارت های منحصر به فرد آنها را تقلید کنند. این احساس تهدید، مکانیسم دفاعی روانی را فعال می کند که خود را به شکل مقاومت در برابر فناوری نشان می دهد.

چرا هوش مصنوعی ما را به دره عجیب و غریب می برد؟

فقدان نشانه های عاطفی و دره عجیب و غریب

اعتماد انسان صرفا بر اساس منطق نیست. ما نشانه های احساسی مانند لحن صدا، حالات چهره و تماس چشمی را می خوانیم و به آنها تکیه می کنیم. هوش مصنوعی فاقد این علائم است و این کمبود ما را در دره عجیب و غریب قرار می دهد. جایی که چیزی تقریباً انسانی است اما کاملاً نه.

پدیده “دره غیرعادی” چیست؟

این مفهوم که برای اولین بار توسط روباتیک ژاپنی ماساهیرو موری مطرح شد، بیانگر احساس ناراحتی است که هنگام مواجهه با موجودات مصنوعی که به اندازه کافی شبیه انسان هستند تا انتظارات ما را برانگیزند، اما به اندازه کافی برای برآورده کردن کامل این انتظارات مشابه نیستند، تجربه می کنیم.

بی اعتمادی آموخته شده: یک پاسخ منطقی

البته همه این ناامنی ها فقط یک واکنش روانی نیست. سیستم های الگوریتمی بارها نشان داده اند که می توانند تبعیضات موجود در جامعه را تقویت کنند. هنگامی که یک سیستم استخدام هوش مصنوعی به طور سیستماتیک و ساختاریافته علیه گروه های خاصی تبعیض قائل می شود، بی اعتمادی ناشی از آن یک واکنش غیرمنطقی نیست، بلکه واکنشی کاملا منطقی است.

راه حل: از جعبه سیاه تا دیالوگ

راه حل این مشکل فقط ایجاد سیستم های دقیق تر نیست. اگر خواهان پذیرش واقعی هوش مصنوعی هستیم، باید آن را از جعبه سیاه خارج کنیم و به فرآیند مکالمه وارد کنیم. اعتماد زمانی حاصل می شود که سیستم ها شفاف و پاسخگو باشند. طراحی هوش مصنوعی باید مبتنی بر درک روانشناسی انسان باشد نه فقط معیارهای فنی.