@ai_new_ir

تصویب لایحه امنیتی AI کالیفرنیا در سنای ایالتی — اما گویی Newsom ممکن است وتو کند


اوایل صبح شنبه، سنای ایالتی کالیفرنیا نهایتاً لایحه مهمی در حوزه امنیت AI را تصویب کرد که نیازمندی‌های جدیدی برای شفافیت در شرکت‌های بزرگ تعیین می‌کند.

این لایحه که توسط سناتور اسکات وینر تدوین شده است، شرکت‌های بزرگ هوش مصنوعی را ملزم می‌کند تا در مورد پروتکل‌های ایمنی خود شفافیت داشته باشند، همچنین از افشاگران در این شرکت‌ها محافظت می‌کند و یک ابر عمومی برای گسترش دسترسی به محاسبات (کل‌کامپیوتر) ایجاد می‌کند.

اکنون این لایحه به دست فرماندار کالیفرنیا، گاوین نیوزوم، می‌رسد تا امضا یا وتو کند. او هنوز به طور عمومی درباره SB 53 اظهار نظری نکرده است، اما سال گذشته، لایحه امنیتی گسترده‌تری را که توسط وینر نوشته شده بود، وتو کرد در حالی که قانونی خاص‌تر را امضا کرد که مسائل مانند دیپ‌فیک‌ها را هدف قرار می‌داد.

در آن زمان، نیوزوم اهمیت «حفاظت از مردم در برابر تهدیدهای واقعی این فناوری» را اذعان کرد، اما لایحه قبلی وینر را به دلیل اعمال معیارهای سختگیرانه بر مدل‌های بزرگ بدون در نظر گرفتن محل بکارگیری آن‌ها انتقاد کرد.

به گزارش Politico، SB 53 اخیراً اصلاح شده است تا شرکت‌هایی که مدل‌های AI مرزی توسعه می‌دهند و کمتر از ۵۰۰ میلیون دلار درآمد سالانه دارند، تنها نیاز به ارائه جزئیات ایمنی در سطح بالا دارند، در حالی که شرکت‌هایی که بیش از این مبلغ کسب می‌کنند باید گزارش‌های دقیق‌تری ارائه دهند.

لایحه با مخالفت تعدادی از شرکت‌های سیلیکون‌ولی، دفاتر سرمایه‌گذاری و گروه‌های لابی مواجه شده است. در نامه‌ای اخیر به نیوزوم، OpenAI به طور خاص به SB 53 اشاره نکرده، اما استدلال کرده که برای جلوگیری از «تکرار و ناهماهنگی‌ها»، شرکت‌ها باید تا زمانی که استانداردهای فدرال یا اروپا را رعایت کنند، سازگار با قوانین ایمنی ایالتی در نظر گرفته شوند.

در همین حال، شرکت Anthropic از SB 53 حمایت کرده است. یکی از بنیان‌گذاران، جک کلارک، در پستی اظهار داشت: «ما مدت‌هاست که گفته‌ایم که ترجیح می‌دهیم استاندارد فدرالی وجود داشته باشد. اما در صورت عدم وجود آن، این لایحه یک الگوی محکم برای حکمرانی AI ایجاد می‌کند که نمی‌توان آن را نادیده گرفت.»