@ai_new_ir

مبارزه اسکات وینر برای افشای خطرات هوش مصنوعی توسط غول‌های فناوری


این اولین بار نیست که اسکات وینر، سناتور ایالت کالیفرنیا، تلاشی برای شناسایی خطرات هوش مصنوعی انجام می‌دهد.

در سال ۲۰۲۴، سیلیکون ولی به شدت با لایحه بحث‌برانگیز امنیت هوش مصنوعی او، SB 1047، مخالفت کرد؛ لایحه‌ای که شرکت‌های فناوری را مسئول آسیب‌های احتمالی ناشی از سیستم‌های هوش مصنوعی آن‌ها می‌دانست. سرانجام، گاوین نیوسام، فرماندار کالیفرنیا، این لایحه را وتو کرد.

حالا وینر با لایحه جدیدی به نام SB 53 بازگشته است که در انتظار امضای نیوسام قرار دارد. این بار، لایحه بسیار محبوب‌تر است، یا حداقل، سیلیکون ولی به آن مخالفت علنی نمی‌کند.

لایحه جدید وینر، گزارش دهی از ایمنی توسط شرکت‌های بزرگ هوش مصنوعی مانند OpenAI و Google را الزامی می‌کند. این در حالی است که بسیاری از آزمایشگاه‌های هوش مصنوعی به طور داوطلبانه گزارش‌هایی درباره چگونگی استفاده مدل‌های هوش مصنوعی خود تهیه می‌کنند، اما این کار همیشه منظم نیست.

لایحه همچنین کانال‌هایی برای گزارش نگرانی‌های ایمنی کارکنان شرکت‌های هوش مصنوعی به مقامات دولتی ایجاد کرده و یک خوشه محاسبات ابری به نام CalCompute تاسیس می‌کند. وینر معتقد است که ایالت‌ها باید خود پای به میدان بگذارند، چون دولت فدرال نمی‌تواند قوانین معناداری برای ایمنی هوش مصنوعی وضع کند.

گفت‌وگوی ما با سناتور وینر به بررسی این موضوع که چرا ایمنی هوش مصنوعی برای او اینقدر اهمیت دارد و چرا توجه او به این مقوله جلب شده، اختصاص دارد.