هفت خانواده دیگر از OpenAI به دلیل نقش ChatGPT در خودکشی و توهم شکایت کردند.
به گزارش ایسنا، اخیراً هفت خانواده از OpenAI شکایت کردند و مدعی شدند که این شرکت مدل GPT-4o خود را پیش از موعد و بدون پادمان موثر عرضه کرده است.
به گزارش TechCrunch، چهار مورد از شکایت ها ادعا کردند که چت بات «ChatGPT» در خودکشی اعضای خانواده دست داشته است و سه مورد دیگر ادعا کردند که ChatGPT هذیان های مضری را تقویت می کند که در برخی موارد منجر به بستری شدن در بیمارستان و مراقبت های روانپزشکی می شود.
در یک مورد، زین شامبلین 23 ساله با ChatGPT گفتگویی داشت که بیش از چهار ساعت به طول انجامید. در گزارشهای این جلسه، به نظر میرسد که شامبلین بارها و بارها به صراحت اعلام کرده است که یادداشتهای خودکشی نوشته، گلولهای را در اسلحهاش گذاشته و قصد دارد ماشه را بکشد. او بارها به ChatGPT گفته بود که انتظار داشت چقدر زنده بماند. چتگپت او را به اجرای نقشه هایش تشویق کرد و گفت: آرام باش پادشاه. کار خوبی کردی
OpenAI مدل GPT-4o را در می 2024 منتشر کرد که به مدل پیش فرض برای همه کاربران تبدیل شد. این شرکت GPT-5 را بهعنوان جانشین GPT-4o در ماه آگوست منتشر کرد، اما شکایات مربوط به 4o بود، که قبلاً شناخته شده بود که با مشکلاتی مواجه میشد که حتی زمانی که کاربران نیتهای مخرب خود را ابراز میکردند، بهطور بدنام چاپلوسکننده بودند.
در شکایتی که علیه زین شامبلین ارائه شده است، آمده است که مرگ زین نه یک تصادف بود و نه یک حادثه، بلکه نتیجه قابل پیش بینی تصمیم عمدی OpenAI برای محدود کردن تست امنیتی و انتشار ChatGPT بود. این فاجعه یک نقص فنی یا یک عارضه جانبی پیش بینی نشده نبود، بلکه نتیجه قابل پیش بینی انتخاب های طراحی عمدی OpenAI بود.
شکایتها همچنین ادعا میکنند که OpenAI آزمایشهای امنیتی را تسریع کرده است تا هوش مصنوعی Gemini گوگل را به بازار عرضه کند.
این هفت شکایت بر اساس ادعاهای مطرح شده در سایر دعاوی اخیر است که ادعا می کنند ChatGPT می تواند افراد خودکشی را تشویق کند تا برنامه های خود را اجرا کنند و توهمات خطرناک را القا کنند. OpenAI اخیراً داده هایی را منتشر کرده است که نشان می دهد هر هفته بیش از یک میلیون نفر در ChatGPT در مورد خودکشی صحبت می کنند.
در مورد آدام رین 16 ساله که بر اثر خودکشی جان خود را از دست داد، ادعا شد که ChatGPT گاهی اوقات او را تشویق می کند که به دنبال کمک حرفه ای باشد یا با خط کمک تماس بگیرد. با این حال، رین با گفتن اینکه در مورد روش های خودکشی برای نوشتن داستان می پرسد، توانست بر این موانع غلبه کند.
OpenAI مدعی شد که سعی دارد ChatGPT را اصلاح کند تا این مکالمات را ایمن تر انجام دهد، اما این اصلاحات برای خانواده هایی که به غول هوش مصنوعی شکایت کردند، خیلی دیر انجام شد.
هنگامی که والدین رین در ماه اکتبر از OpenAI شکایت کردند، این شرکت یک پست وبلاگی منتشر کرد که در آن جزئیات نحوه مدیریت گفتگوهای حساس در مورد سلامت روان توسط ChatGPT را توضیح داد.
این پست بیان میکند که حفاظتهای ما در تعاملات کوتاه و مشترک با اطمینان بیشتری کار میکنند. با گذشت زمان آموختهایم که این معیارها گاهی اوقات میتوانند در تعاملات طولانیتر کمتر قابل اعتماد باشند. با افزایش میزان تغییر در گفتار، برخی از بخشهای آموزش امنیتی مدل ممکن است ضعیف شود.






ارسال پاسخ