@ai_new_ir

کاربران Anthropic در دوراهی: به اشتراک‌گذاری داده‌ها یا قطع همکاری


Anthropic اخیراً تغییرات عمده‌ای در نحوه مدیریت داده‌های کاربران اعمال کرده است. از کاربران کلود خواسته شده که تا ۲۸ سپتامبر مشخص کنند که آیا می‌خواهند مکالماتشان برای آموزش مدل‌های هوش مصنوعی استفاده شود یا خیر.

پیش از این، Anthropic داده‌های چت کاربران را برای آموزش مدل‌ها استفاده نمی‌کرد، اما حالا تصمیم گرفته است که سیستم‌های هوش مصنوعی خود را بر اساس مکالمات و جلسات کدنویسی کاربران آموزش دهد. همچنین، مدت زمان نگهداری داده‌ها برای کسانی که از این تصمیم انصراف ندهند به پنج سال افزایش یافته است.

این تغییرات کلان در واقع به این معناست که اطلاعات وارد شده از طرف کاربران، که تا پیش از این به‌طور خودکار و در بازه سی روزه حذف می‌شد، در صورتی که تیک انصراف را نزنند، می‌تواند تا پنج سال نگهداری شود. البته، این سیاست‌ها برای کاربران کسب‌وکارهای مانند Claude Gov، Claude for Work و Claude for Education بدون تغییر خواهند ماند. این نحوه برخورد بیشتر شبیه به سیاست OpenAI برای حفاظت از مشتریان سازمانی‌اش است.

Anthropic تغییرات خود را به عنوان فرصتی برای کاربران تعریف می‌کند تا با مشارکت در بهبود امنیت مدل‌ها و افزایش دقت سیستم‌های تشخیص محتوای مخرب به آن‌ها کمک کنند. داده‌های واقعی از مکالمات بازخوردی بلندمدت فراهم می‌آورند که به رقبای مثل OpenAI و Google راه را برایAnthropic باز کند.

به علاوه، فشارهای رقابتی توسعه هوش مصنوعی تأثیر خود را بر سیاست‌های داده‌ها گذاشته است. OpenAI با دستور دادگاه مواجه شده که باید مکالمات کاربران ChatGPT را به خاطر یک پرونده حقوقی حفظ کند. در این راستا، تغییرات گسترده‌ای در سیاست‌های حریم خصوصی در حال رخ دادن است و کاربران ممکن است به طور کامل آگاه نباشند که آیا به اشتراک‌گذاری داده‌هایشان موافقت کرده‌اند یا نه.

در نهایت، موضوع تغییرات گسترده در سیاست‌های داده‌ها و حریم شخصی باعث نقدهای زیادی شده و موضوعی است که حتی کمیسیون تجاری ایالات متحده به آن توجه خاصی دارد و از شرکت‌ها خواسته در صورتی که بدون اطلاع قابل درک، اصلاحات را انجام دهند، ممکن است با پیگرد مواجه شوند.