دانشمندان دانشگاه آکسفورد و کنسرسیومی از دانشگاه برلین مطالعهای را انجام دادهاند که نشان میدهد رویکرد «یک اندازه متناسب با همه» فناوریهای قبلی دیگر برای کاربردهای مختلف هوش مصنوعی معتبر نیست.
کریستف گرلینگ، نویسنده ارشد این مطالعه، از مؤسسه اینترنت و جامعه هومبولت، گفت: استفاده از هوش مصنوعی بصری به نظر می رسد، اما تسلط بر آن مستلزم کاوش و تقویت مهارت های یادگیری تجربی است. او افزود: «این وظیفه مبتنی بر فناوری بیشتر از هر زمان دیگری فردی شده است.
محققان داده های 344 پذیرنده اولیه را در چهار ماه اول پس از عمومی شدن ChatGPT در 30 نوامبر 2020 تجزیه و تحلیل کردند و دریافتند که این پذیرندگان اولیه را می توان به چهار گروه اصلی طبقه بندی کرد:
علاقه مندان به هوش مصنوعی (25.6٪ از پاسخ دهندگان): این کاربران بسیار درگیر هستند و می خواهند از هوش مصنوعی مزایای مولد و اجتماعی به دست آورند. آنها تنها گروهی هستند که هنگام تعامل با ربات چت، “حضور اجتماعی ملموس” را تشخیص می دهند و با ابزارها مانند افراد واقعی رفتار می کنند. آنها همچنین سطوح بالاتری از اعتماد را به سیستم نشان دادند و هیچ نگرانی جدی در مورد حریم خصوصی نداشتند.
عملگرایان بی تجربه (20.6%): روی نتایج و راحتی تمرکز کنید و مزایای عملی هوش مصنوعی را بر نگرانی های حفظ حریم خصوصی ترجیح دهید. در حالی که آنها به مزایای عملی و حرفه ای اعتقاد دارند، نسبت به علاقه مندان به هوش مصنوعی علاقه کمتری به مزایای اجتماعی دارند.
پذیرندگان محتاط (35.5%): آنها کنجکاوی، عملی بودن و احتیاط را ترکیب می کنند و دائماً مزایای عملکردی را در برابر خطرات احتمالی می سنجند. این گروه نسبت به دو گروه قبلی نگرانی بیشتری در مورد حفظ حریم خصوصی داده ها نشان می دهد.
کاوشگران رزرو (18.3%): آنها بیشتر به این فناوری علاقه مند هستند، هنوز از مزایای آن متقاعد نشده اند و نگرانی های قابل توجهی را در مورد حفظ حریم خصوصی ابراز می کنند. برخلاف سایر گروه ها، آنها نمی توانند مزایای شخصی استفاده از ChatGPT را ببینند.
محققان با شگفتی متوجه شدند که همه این گروه ها علیرغم نگرانی های جدی در مورد حفظ حریم خصوصی به استفاده از ربات های چت ادامه دادند.
تیم تحقیقاتی هشدار داد که تلاش ها برای انسانی کردن هوش مصنوعی می تواند نتیجه معکوس داشته باشد. زیرا کاربران حساس به حریم خصوصی ممکن است خود را مسئول سوء استفاده های احتمالی بدانند نه اینکه شرکتی که هوش مصنوعی را توسعه می دهد، که می تواند اعتماد به سیستم را سریعتر از بین ببرد.






ارسال پاسخ