@ai_new_ir

والدین از OpenAI به خاطر نقش ChatGPT در خودکشی پسرشان شکایت کردند


قبل از اینکه آدام راین شانزده ساله به زندگیش پایان بده، ماه‌ها بود که با ChatGPT درباره برنامه‌های خودکشی خودش صحبت می‌کرد. حالا پدر و مادرش اولین دادخواست رسمی بابت مرگ غیرعمد علیه OpenAI رو تنظیم کرده‌ان.

بسیاری از چت‌بات‌های مصرفی هوش مصنوعی در صورت بیان قصد آسیب به خود یا دیگران، ویژگی‌های ایمنی فعال می‌کنن. اما تحقیقات نشون داده که این حفاظ‌ها چندان قابل اعتماد نیستند.

در مورد راین، وقتی که از نسخه پولی ChatGPT-4o استفاده می‌کرد، هوش مصنوعی اغلب او رو به دنبال کردن کمک حرفه‌ای یا تماس با خط کمک تشویق می‌کرد. با این حال، او تونست این محافظ‌ها رو با گفتن اینکه درباره روش‌های خودکشی برای یک داستان تخیلی تحقیق می‌کنه، دور بزنه.

OpenAI در بلاگ خودش به این کاستی‌ها اشاره کرده: "همانطور که جهان به این فناوری جدید عادت می‌کنه، ما احساس مسئولیت عمیقی داریم که به کسانی که بیشترین نیاز رو دارن کمک کنیم. ما به طور مداوم در حال بهبود نحوه پاسخ‌دهی مدل‌هامون در تعاملات حساس هستیم."

با این حال، شرکت اذعان کرد که محدودیت‌هایی در آموزش ایمنی موجود برای مدل‌های بزرگ وجود داره. "محافظ‌های ما در معاملات کوتاه معمولی به طور قابل اعتمادتر کار می‌کنن و با گذشت زمان یاد گرفته‌ایم که این حفاظ‌ها گاهی اوقات در تعاملات طولانی‌تر کمتر قابل اعتماد هستن: با افزایش گفتگوتراپی، بخش‌هایی از آموزش ایمنی مدل ممکنه دچار افت بشن."

این مشکلات منحصر به OpenAI نیست. Character.AI، سازنده دیگر چت‌بات‌های هوش مصنوعی، هم با دادخواستی بابت نقش خود در خودکشی یک نوجوان مواجه شده‌است. چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ همچنین به مواردی از وهم‌آفرینی مرتبط با هوش مصنوعی ارتباط داشتن که حفاظ‌های موجود نتوانسته‌اند اونا رو تشخیص بدن.