@ai_new_ir

معرفی سیستم مسیریابی ایمنی و کنترل والدین در ChatGPT


OpenAI به تازگی سیستم مسیریابی ایمنی جدیدی را برای ChatGPT معرفی کرده و کنترل‌های والدین را به این چت‌بات افزوده است. این اقدام با واکنش‌های متفاوت کاربران روبرو شده است.

ویژگی‌های ایمنی به دنبال حوادث متعددی که در آن‌ برخی مدل‌های ChatGPT به جای مدیریت مکالمات مضر، به تفکرات بیهوده کاربران اعتبار بخشیده بودند، معرفی شده‌اند. OpenAI با یکی از این حوادث به دلیل فوت یک نوجوان پس از ماه‌ها تعامل با ChatGPT، با شکایت قانونی مواجه است.

سیستم مسیریابی طراحی شده تا مکالمات حساس را شناسایی کرده و به‌طور خودکار به مدل GPT-5 سوئیچ کند که شرکت آن را برای کارهای ایمنی حیاتی بهترین مدل می‌داند. مدل‌های GPT-5 با ویژگی ایمنى جدید «تکمیل‌های ایمن» آموزش دیده‌اند تا به سؤالات حساس به روشی ایمن پاسخ دهند.

درحالی‌که بسیاری از متخصصان و کاربران از این ویژگی‌های ایمنی استقبال کرده‌اند، برخی دیگر انتقادی برخورد کرده و می‌گویند که این اجرا بیش از حد محتاطانه است.

Nick Turley، معاون و مدیر بخش ChatGPT، به واکنش‌های قوی به پاسخ‌های مدل 4o به دلیل اجرای روتر اشاره کرده و اعلام کرده که تعویض مدل در یک پیام انجام می‌شود و ChatGPT به کاربر اطلاع می‌دهد که کدام مدل فعال است.

اجرای کنترل‌های والدین نیز با واکنش‌های مشابهی مواجه شده است و امکان می‌دهد والدین تجربه نوجوانان خود را از طریق تنظیم ساعت‌های خاموش، خاموش کردن حالت صوتی و حافظه، حذف تولید تصویر و خروج از آموزش مدل شخصی‌سازی کنند.

حساب‌های نوجوانان محتوای اضافی محافظت شده دریافت خواهند کرد و سیستمی برای شناسایی نشانه‌های احتمالی فکر به خودآزاری وجود دارد. اگر سیستم‌های ما هرگونه خطر بالقوه را تشخیص دهند، تیم کوچکی از افراد ویژه تربیت یافته، وضعیت را بررسی می‌کنند.

OpenAI اذعان دارد که این سیستم بی‌نقص نخواهد بود و ممکن است گاهی اوقات هشدارهایی صادر شود که واقعی نباشند، اما این شرکت معتقد است که بهتر است والدین هشدار داده شوند تا سکوت کنند.