@ai_new_ir

چگونه توسعه‌دهندگان از مدل‌های هوش مصنوعی محلی اپل در iOS 26 استفاده می‌کنند


در اوایل سال جاری، اپل فریم‌ورک Foundation Models را در کنفرانس توسعه‌دهندگان WWDC 2025 معرفی کرد که به توسعه‌دهندگان امکان می‌دهد از مدل‌های هوش مصنوعی محلی اپل برای بهبود ویژگی‌های اپلیکیشن‌هایشان استفاده کنند.

ویژگی‌های اصلی این مدل‌ها شامل تولید هدایت‌شده و برقراری ابزار است و توسعه‌دهندگان می‌توانند بدون نگرانی از هزینه‌های محاسباتی به این مدل‌ها دسترسی داشته باشند.

با انتشار iOS 26، توسعه‌دهندگان اپلیکیشن‌هایشان را به‌روز کرده‌اند تا ویژگی‌هایی را که با استفاده از مدل‌های هوش مصنوعی محلی اپل بهبود یافته است شامل کنند. مدل‌های اپل نسبت به مدل‌های پیشرو مانند OpenAI، Anthropic، گوگل یا متا کوچک‌تر هستند و به همین دلیل، ویژگی‌های محلی تنها کیفیت زندگی را با این اپ‌ها بهبود می‌بخشند.

برخی از اپلیکیشن‌های اولیه که از فریم‌ورک هوش مصنوعی اپل بهره می‌برند عبارتند از:

Lil Artist: این اپلیکیشن تجربیات تعاملی مختلفی را برای کمک به کودکان در یادگیری مهارت‌هایی مانند خلاقیت، ریاضیات و موسیقی ارائه می‌دهد.

Daylish: این اپلیکیشن در حال توسعه یک نمونه اولیه برای پیشنهاد اتوماتیک ایموجی‌ها بر اساس عنوان رویدادهای زمانی است.

MoneyCoach: اپلیکیشن مدیریت مالی MoneyCoach دو ویژگی جدید دارد که توسط مدل‌های محلی پشتیبانی می‌شوند.

LookUp: این اپلیکیشن یادگیری لغت دو حالت جدید با استفاده از مدل‌های اپل اضافه کرده است.

Tasks: این اپلیکیشن ویژگی برای پیشنهاد برچسب‌ها برای ورود اطلاعات با استفاده از مدل‌های محلی اضافه کرده است.

ما با کشف اپلیکیشن‌های بیشتری که از مدل‌های محلی اپل استفاده کرده‌اند، لیست بالا را به‌روز خواهیم کرد.