@ai_new_ir

بیش از یک میلیون گفتگو درباره خودکشی هفته‌ای با ChatGPT انجام می‌شود


OpenAI در روز دوشنبه اطلاعات جدیدی منتشر کرد که نشان می‌دهد بسیاری از کاربران ChatGPT با مسائل مربوط به سلامت روانی درگیر هستند و درباره آن با ربات چت مصنوعی به گفت‌وگو می‌پردازند. شرکت اعلام کرده که ۰.۱۵٪ از کاربران فعال ChatGPT در یک هفته مشخص، مکالماتی دارند که نشان دهنده شاخص‌های بالقوه برای برنامه‌ریزی یا قصد خودکشی هستند. با توجه به اینکه ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، این به معنای آن است که بیش از یک میلیون نفر در هفته با این مشکلات روبرو هستند.

همچنین، OpenAI مدعی است که درصد مشابهی از کاربران نشان‌دهنده وابستگی‌های احساسی بالا به ChatGPT هستند و صدها هزار نفر نشانگر علائم روان‌پریشی یا مانیا در مکالمات هفتگی خود با این ربات هوشمند هستند.

OpenAI همچنین اعلام کرده که در تلاش برای بهبود نحوه پاسخگو بودن مدل‌های خود به کاربران با چالش‌های مرتبط با سلامت روانی، با بیش از ۱۷۰ متخصص سلامت روان مشورت کرده است. این شرکت بیان کرده که در نسخه‌ جدید ChatGPT پاسخ‌ها به شکل مناسب‌تر و مداوم‌تری نسبت به نسخه‌های قبلی داده می‌شود.

این تلاش‌ها پس از آن صورت گرفت که چندین داستان اخیراً بر نور تاثیری منفی که ربات‌های هوش مصنوعی می‌توانند بر کاربران داشته باشند، افشا کرده‌اند. محققان پیشتر دریافته‌اند که ربات‌های هوش مصنوعی می‌توانند برخی کاربران را به دنیای خیالی و خطرناک سوق دهند، عمدتاً با تقویت باورهای مخاطره آمیز از طریق رفتارهای تملّقی.

رسیدگی به نگرانی‌های مرتبط با سلامت روانی در ChatGPT به سرعت به یک مسئله حیاتی برای OpenAI تبدیل شده است. شرکت در حال حاضر با شکایت والدین نوجوان ۱۶ ساله‌ای مواجه است که افکار خودکشی خود را با ChatGPT در هفته‌های قبل از خودکشی خود در میان گذاشته بود. مقامات قانونی ایالت کالیفرنیا و دلاور نیز به OpenAI هشدار داده‌اند که باید از جوانانی که محصولات آن‌ها را استفاده می‌کنند، محافظت کند.

سم آلتمن، مدیرعامل OpenAI، اوایل این ماه در پستی اعلام کرد که شرکت توانسته مسائل جدی روانی در ChatGPT را کاهش دهد، اگرچه جزییات خاصی ارائه نکرد. داده‌هایی که در روز دوشنبه منتشر شد، ظاهراً به عنوان مدرکی برای این ادعا هستند، هرچند که مسائلی گسترده‌تر را درباره وسعت این مشکل مطرح می‌کند. با این حال، آلتمن اعلام کرد که OpenAI برخی محدودیت‌ها را کاهش داده و حتی به کاربران بالغ اجازه می‌دهد که مکالمات عاشقانه با ربات چت داشته باشند.

OpenAI در روز دوشنبه اعلام کرد که نسخه جدید بروزرسانی شده GPT-5 پاسخ‌های مطلوبی در مواجهه با مسائل روانی حدود ۶۵٪ بیشتر از نسخه قبلی ارائه می‌دهد. در ارزیابی‌های مرتبط با مکالمات خودکشی، OpenAI می‌گوید مدل جدید GPT-5 ۹۱٪ مطابق با رفتارهای مطلوب شرکت عمل می‌کند، در حالیکه مدل قبلی تنها ۷۷٪ موفق به این کار بود.

این شرکت همچنین اعلام کرده که نسخه جدید GPT-5 نیز در مکالمات طولانی به ترتیب بهبود یافته و در مواجهه با چالش‌ها به خوبی عمل می‌کند. OpenAI پیش از این اعلام کرده بود که تدابیر امنیتی آن‌ها در مکالمات طولانی کمتر مؤثر بودند.

علاوه بر این تلاش‌ها، OpenAI می‌گوید در حال افزودن ارزیابی‌های جدید برای سنجش برخی از چالش‌های جدی مرتبط با مسائل روانی که کاربران ChatGPT با آن‌ها روبرو هستند، می‌باشد. شرکت اعلام کرده که آزمایش‌های پایه‌ای ایمنی برای مدل‌های هوش مصنوعی شامل معیارهای وابستگی احساسی و وضعیت اضطراری روانی غیرخودکشی می‌باشد.

همچنین، OpenAI به تازگی کنترل‌های بیشتری برای والدین کودکانی که از ChatGPT استفاده می‌کنند، ارائه داده است. شرکت می‌گوید در حال ساخت یک سیستم پیش‌بینی سن است تا به صورت خودکار کودکان استفاده کننده از ChatGPT را شناسایی کرده و مجموعه‌ای از تدابیر ایمنی سختگیرانه‌تری اعمال کند.

با این حال، هنوز مشخص نیست که چالش‌های روانی مرتبط با ChatGPT تا چه میزان پایدار خواهند بود. در حالی که به نظر می‌رسد GPT-5 در مقایسه با مدل‌های قبلی ایمن‌تر است، هنوز به نظر می‌رسد بخشی از پاسخ‌های ChatGPT توسط OpenAI به عنوان «ناخواسته» بیان می‌شود. OpenAI همچنین همچنان مدل‌های قدیمی‌تر و کمتر ایمن هوش مصنوعی خود، از جمله GPT-4o، را برای میلیون‌ها مشترک پرداخت کننده خود در دسترس می‌گذارد.