کارشناسان و همچنین نقض محرمانه بودن ، استفاده پنهانی از چتپ می تواند رابطه درمانی را تکان دهد و به بیماران خیانت کند و احساس ناامنی کند.
یک گزارش جدید نشان می دهد که برخی از درمانگران یا درمانگران مخفیانه در جلسات درمانی از چتپ استفاده می کنند. این می تواند حریم خصوصی مشتریان را به خطر بیندازد.
در سالهای اخیر ، هوش مصنوعی به ابزاری مفید برای زمینه های مختلف تبدیل شده است ، اما ورود آن به حوزه روان درمانی بحث برانگیز بوده است. براساس گزارشی از MIT Technology Review ، برخی از درمانگران مخفیانه از ChatGPT برای تولید پاسخ یا راه حل های سریع در طول جلسات استفاده می کنند.
این گزارش به یک آمریکایی به نام Declain اشاره دارد ، که می فهمد که درمانگر سخنان خود را مستقیماً در چتپ قرار داده و سپس به او پاسخ های هوش مصنوعی داده است. پس از مرگ سگ خود ، شخص دیگری به نام هوپ ، که به درمانگر آمد ، پیامی از او دریافت کرد ، نسخه انسانی تر و صادقانه تر از لحن تعاملی.
متخصص هشدار می دهد استفاده از chatgpt درمانی برای درمان
به گفته کارشناسان ، این ممکن است تا حد زیادی بر اعتماد بیمار تأثیر بگذارد. زیرا بسیاری از بیماران انتظار دارند که سخنان آنها خاص باشد.
در سخنرانی با Cybernews ، در سخنرانی با توماس وستن هولز ، Cybernews ، تأکید می کند که شفافیت از این نظر بسیار مهم است. می گوید:
“درمان مبتنی بر صداقت و شفافیت است.” اگر مشتری درمانگر را پیدا کند تا بدون اطلاع خود به چتپ کمک کند ، می تواند اعتماد خود را از بین ببرد. ”
به گفته وی ، نقش هوش مصنوعی ممکن است در منابع اداری یا آموزشی مفید باشد ، اما هرگز نباید با روند درمان تغییر یابد.
اگرچه برخی از مطالعات فکر می کنند که پاسخ های تولید شده توسط هوش مصنوعی ممکن است مناسب تر از دیدگاه بیماران باشد ، مشکل اصلی عدم وجود اطلاعات مناسب است. بیماران غالباً در ابتدای درمان محرمانه بودن داده ها را امضا می كنند و اگر ببینند دانش آنها به یك الگوی زبان داده می شود ، ممکن است آسیب پذیرتر شوند.
وی توضیح می دهد: “شفافیت تغییر نکرده است.” در روان درمانی مبتنی بر EFT ، ما می دانیم که روند بهبودی فقط در روابطی رخ می دهد که شخص احساس امنیت می کند و امنیت به صداقت بستگی دارد. “اگر هوش مصنوعی بخشی از روند درمان باشد ، بیماران باید بدانند و راضی شوند.”
ارسال پاسخ