@ai_new_ir

سرمایه‌گذاری 80 میلیون دلاری برای رمزگشایی امنیت مدل‌های پیشرفته هوش مصنوعی


در روز چهارشنبه، شرکت امنیت هوش مصنوعی Irregular اعلام کرد که موفق به جمع‌آوری 80 میلیون دلار سرمایه از طریق یک دوره تامین مالی به رهبری شرکت‌های معتبر Sequoia Capital و Redpoint Ventures شده است، با حضور مدیرعامل شرکت Wiz، Assaf Rappaport.

منبعی نزدیک به این معامله بیان کرد که این دوره تامین مالی ارزش شرکت Irregular را به 450 میلیون دلار رسانده است. یکی از بنیان‌گذاران به نام Dan Lahav به TechCrunch گفت: "دیدگاه ما این است که در آینده نه چندان دور فعالیت‌های اقتصادی بسیاری از تعامل انسان با هوش مصنوعی و تعاملات هوش مصنوعی با هوش مصنوعی ناشی خواهد شد و این موجب ایجاد نقاط ضعف امنیتی در ساختارهای مختلف خواهد شد."

شرکت قبلاً با نام Pattern Labs شناخته می‌شد و در حال حاضر یکی از بازیگران مهم در ارزیابی‌های هوش مصنوعی است. کارهای این شرکت در ارزیابی‌های امنیتی برخی از مدل‌های معروف Claude 3.7 Sonnet و OpenAI’s o3 و o4-mini ذکر شده است. به طور کلی، چارچوب شرکت برای نمره‌گذاری قابلیت تشخیص آسیب‌پذیری یک مدل موسوم به SOLVE به صورت گسترده در صنعت استفاده می‌شود.

در حالی که Irregular کارهای مهمی در زمینه خطرات موجود مدل‌ها انجام داده است، این شرکت با هدف انجام کارهای بلند پروازانه‌تری، در حال جمع‌آوری سرمایه است: تشخیص زودهنگام خطرات و رفتارهای نوظهور قبل از ظهور آن‌ها در دنیای واقعی. این شرکت سیستم پیچیده‌ای از محیط‌های شبیه‌سازی شده ساخته است که امکان آزمایش‌های شدید مدل‌ها قبل از انتشار آن‌ها را فراهم می‌کند.

Omer Nevo یکی از بنیان‌گذاران می‌گوید: "ما شبیه‌سازی‌هایی با شبکه‌های پیچیده داریم که در آن‌ها هوش مصنوعی هر دو نقش مهاجم و مدافع را ایفا می‌کند. بنابراین زمانی که مدل جدیدی ارائه می‌شود، می‌توانیم ببینیم که در کجا دفاع‌ها پابرجا می‌مانند و کجا شکسته می‌شوند."

امنیت به یکی از نقاط تمرکز شدید صنعت هوش مصنوعی تبدیل شده است، زیرا با توسعه توانایی‌های مدل‌های پیشرفته، خطرات بیشتری پدیدار شده‌اند. OpenAI این تابستان اقدامات امنیتی داخلی خود را با تمرکز بر احتمال جاسوسی شرکتی بازسازی کرده است.

در عین حال، مدل‌های هوش مصنوعی به طور فزاینده‌ای قادر به کشف آسیب‌پذیری‌های نرم‌افزاری هستند، قدرتی با پیامدهای جدی برای هر دو جناح مهاجم و مدافع.

برای بنیان‌گذاران Irregular، این تنها اولین مورد از بسیاری از سردردهای امنیتی است که توسط توانایی‌های رو به رشد مدل‌های زبان بزرگ ایجاد شده‌اند. Lahav بیان می‌کند: "اگر هدف آزمایشگاه پیشرو ساخت مدل‌هایی است که به طور فزاینده پیچیده‌تر و توانمندتر باشند، هدف ما ایمن نگه‌داشتن این مدل‌هاست، اما این یک هدف جابه‌جا شونده است، بنابراین به طور ذاتی کارهای زیادی برای انجام در آینده وجود دارد."