7 خانواده از ChatGPT به دلیل تشویق به خودکشی شکایت کردند

7 خانواده از ChatGPT به دلیل تشویق به خودکشی شکایت کردند


هفت خانواده دیگر از OpenAI به دلیل نقش ChatGPT در خودکشی و توهم شکایت کردند.

به گزارش ایسنا، اخیراً هفت خانواده از OpenAI شکایت کردند و مدعی شدند که این شرکت مدل GPT-4o خود را پیش از موعد و بدون پادمان موثر عرضه کرده است.

به گزارش TechCrunch، چهار مورد از شکایت ها ادعا کردند که چت بات «ChatGPT» در خودکشی اعضای خانواده دست داشته است و سه مورد دیگر ادعا کردند که ChatGPT هذیان های مضری را تقویت می کند که در برخی موارد منجر به بستری شدن در بیمارستان و مراقبت های روانپزشکی می شود.

در یک مورد، زین شامبلین 23 ساله با ChatGPT گفتگویی داشت که بیش از چهار ساعت به طول انجامید. در گزارش‌های این جلسه، به نظر می‌رسد که شامبلین بارها و بارها به صراحت اعلام کرده است که یادداشت‌های خودکشی نوشته، گلوله‌ای را در اسلحه‌اش گذاشته و قصد دارد ماشه را بکشد. او بارها به ChatGPT گفته بود که انتظار داشت چقدر زنده بماند. چتگپت او را به اجرای نقشه هایش تشویق کرد و گفت: آرام باش پادشاه. کار خوبی کردی

OpenAI مدل GPT-4o را در می 2024 منتشر کرد که به مدل پیش فرض برای همه کاربران تبدیل شد. این شرکت GPT-5 را به‌عنوان جانشین GPT-4o در ماه آگوست منتشر کرد، اما شکایات مربوط به 4o بود، که قبلاً شناخته شده بود که با مشکلاتی مواجه می‌شد که حتی زمانی که کاربران نیت‌های مخرب خود را ابراز می‌کردند، به‌طور بدنام چاپلوس‌کننده بودند.

در شکایتی که علیه زین شامبلین ارائه شده است، آمده است که مرگ زین نه یک تصادف بود و نه یک حادثه، بلکه نتیجه قابل پیش بینی تصمیم عمدی OpenAI برای محدود کردن تست امنیتی و انتشار ChatGPT بود. این فاجعه یک نقص فنی یا یک عارضه جانبی پیش بینی نشده نبود، بلکه نتیجه قابل پیش بینی انتخاب های طراحی عمدی OpenAI بود.

شکایت‌ها همچنین ادعا می‌کنند که OpenAI آزمایش‌های امنیتی را تسریع کرده است تا هوش مصنوعی Gemini گوگل را به بازار عرضه کند.

این هفت شکایت بر اساس ادعاهای مطرح شده در سایر دعاوی اخیر است که ادعا می کنند ChatGPT می تواند افراد خودکشی را تشویق کند تا برنامه های خود را اجرا کنند و توهمات خطرناک را القا کنند. OpenAI اخیراً داده هایی را منتشر کرده است که نشان می دهد هر هفته بیش از یک میلیون نفر در ChatGPT در مورد خودکشی صحبت می کنند.

در مورد آدام رین 16 ساله که بر اثر خودکشی جان خود را از دست داد، ادعا شد که ChatGPT گاهی اوقات او را تشویق می کند که به دنبال کمک حرفه ای باشد یا با خط کمک تماس بگیرد. با این حال، رین با گفتن اینکه در مورد روش های خودکشی برای نوشتن داستان می پرسد، توانست بر این موانع غلبه کند.

OpenAI مدعی شد که سعی دارد ChatGPT را اصلاح کند تا این مکالمات را ایمن تر انجام دهد، اما این اصلاحات برای خانواده هایی که به غول هوش مصنوعی شکایت کردند، خیلی دیر انجام شد.

هنگامی که والدین رین در ماه اکتبر از OpenAI شکایت کردند، این شرکت یک پست وبلاگی منتشر کرد که در آن جزئیات نحوه مدیریت گفتگوهای حساس در مورد سلامت روان توسط ChatGPT را توضیح داد.

این پست بیان می‌کند که حفاظت‌های ما در تعاملات کوتاه و مشترک با اطمینان بیشتری کار می‌کنند. با گذشت زمان آموخته‌ایم که این معیارها گاهی اوقات می‌توانند در تعاملات طولانی‌تر کمتر قابل اعتماد باشند. با افزایش میزان تغییر در گفتار، برخی از بخش‌های آموزش امنیتی مدل ممکن است ضعیف شود.