هوش “اپل” ترجمه را زنده کرد

اپل با رونمایی از ویژگی «ترجمه زنده» در رویداد WWDC 2025، قدمی بلند در مسیر هوش مصنوعی شخصی برداشت. این قابلیت بخشی از مجموعه جدید Apple Intelligence است که تماس‌ها و پیام‌ها را به‌صورت هم‌زمان و با صدای مصنوعی ترجمه می‌کند و تجربه ارتباط میان‌زبانی را متحول کرده است.

به گزارش پایگاه خبری بانکداری الکترونیک به نقل از فابانیوز،اپل در iOS 26 و iPadOS 26 قابلیتی معرفی کرد که تماس‌های صوتی، مکالمات فیس‌تایم و حتی پیام‌های متنی را به‌صورت زنده، آنی و با صدای مصنوعی ترجمه می‌کند. این ترجمه در همان لحظه مکالمه و روی دستگاه (on-device) انجام می‌شود، بدون نیاز به اتصال به اینترنت.

این قابلیت در:
• اپلیکیشن‌های Phone، FaceTime و Messages
• سیستم‌های iOS 26، iPadOS 26 و watchOS 26
• دستگاه‌هایی مانند iPhone 15 Pro، iPadهای مجهز به تراشه M1 به بعد، و اپل‌واچ سری ۹ و ۱۰ و Ultra 2 در دسترس خواهد بود.

اپل وعده داده است که این ویژگی حتی در تماس با گوشی‌های غیر اپلی هم فعال خواهد بود.

 پشتیبانی زبان‌ها؟

در حالی که اپل هنوز فهرست زبان‌های قابل ترجمه را منتشر نکرده، تحلیل‌گران انتظار دارند در نسخه اولیه، زبان‌های انگلیسی، اسپانیایی، فرانسوی، آلمانی، چینی و ژاپنی پشتیبانی شوند. وب‌سایت The Verge گزارش داده اپل در همکاری با OpenAI از مدل‌های چندزبانه GPT-4o برای این بخش بهره برده است.

جزئیات قابلیت ترجمه زنده:

در نسخه جدید iOS 26 و iPadOS 26، ابزار ترجمه زنده به سه برنامه اصلی Phone، Messages و FaceTime اضافه شده است. این ترجمه‌ها به صورت آنی، با صدای مصنوعی و زیرنویس هم‌زمان ارائه می‌شوند.
• در تماس‌های صوتی یا ویدیویی، صدای طرف مقابل هم‌زمان به زبان شما ترجمه می‌شود.
• در پیام‌ها، هنگام تایپ، متن به‌صورت خودکار به زبان مقصد تبدیل می‌گردد.
• قابلیت در ارتباط با دستگاه‌های غیر اپلی نیز کار می‌کند.
• ترجمه چت‌های گروهی نیز پشتیبانی می‌شود.

به گفته لزلی ایکه‌موتو، این ویژگی حتی بدون نیاز به اینترنت ابری و صرفاً با توان پردازشی روی دستگاه فعال است.

چه دستگاه‌هایی پشتیبانی می‌کنند؟

Apple Intelligence فقط در دستگاه‌هایی فعال می‌شود که از چیپ A17 Pro یا سری M اپل بهره‌مندند. در حال حاضر:
• آیفون ۱۵ پرو و بالاتر
• آیپدهای M1 به بعد
• مک‌های دارای چیپ M1 یا جدیدتر

• مک‌های دارای چیپ M1 یا جدیدتر
• اپل واچ‌های سری ۹، ۱۰ و مدل Ultra 2 (با پشتیبانی از ترجمه در Messages در watchOS 26)

آیا این ویژگی به ایرپاد هم می‌رسد؟

اگرچه شایعاتی درباره آوردن ترجمه زنده به AirPods به گوش می‌رسید، اما در WWDC امسال هیچ اشاره مستقیمی به این موضوع نشد. با توجه به سابقه گوگل در ارائه این قابلیت در Pixel Buds، ممکن است اپل در رویداد پاییزه سخت‌افزاری خود درباره آن صحبت کند.

دیگر اتفاقات مهم WWDC 2025:

✅ iOS 26:
• تمرکز بر امنیت حریم خصوصی با پردازش داخلی داده‌ها
• طراحی ساده‌تر و شخصی‌سازی‌شده برای اعلان‌ها
• بهبود تعامل با ویجت‌ها و اکشن‌های فوری
• اضافه شدن حالت نوشتاری دستی در iMessage برای زبان‌های بیشتر

✅ iPadOS 26:
• اپلیکیشن‌های حرفه‌ای مثل Final Cut Pro با کنترل لمسی بهتر
• قابلیت Split View هوشمندتر
• استفاده از Apple Intelligence در نوشتار، خلاصه‌سازی و ترجمه متن

✅ macOS Sequoia:
• ویژگی جدید iPhone Mirroring: کاربران مک اکنون می‌توانند آیفون خود را مستقیماً در دسکتاپ macOS کنترل کنند، نوتیفیکیشن‌ها، تماس‌ها و حتی اپلیکیشن‌های آیفون روی صفحه مک نمایش داده می‌شود.
• Apple Intelligence در مک نیز فعال شده و ابزارهایی مثل خلاصه‌سازی ایمیل‌ها، بازنویسی اسناد، تولید خودکار متن در Pages و Numbers را به ارمغان آورده است.
• حالت Focus هوشمندتر که به‌صورت پویا برنامه‌های مزاحم را محدود می‌کند.
• بهبود عملکرد Safari با Highlights، که به‌صورت خودکار اطلاعات مهم صفحات وب را استخراج و برجسته می‌کند.

✅ Siri جدید:
• سیری حالا با Apple Intelligence بازطراحی شده، طبیعی‌تر، شخصی‌تر و با قابلیت‌های متنی جدید. می‌تواند عملکردهای پیچیده را در اپ‌ها انجام دهد (مثلاً: “به محسن! بگو که ساعت جلسه رو در تقویم عوض کردم و براش ایمیل بفرست”).
• قابلیت گفت‌وگو متنی با سیری بدون نیاز به صدا
• درک بهتر زمینه، حتی اگر درخواست کاربر مبهم یا ناقص باشد

✅ Privacy و امنیت:
• معرفی Private Cloud Compute؛ مدلی که امکان استفاده از قدرت پردازش ابری برای هوش مصنوعی را فراهم می‌کند، بدون ارسال داده‌های خصوصی به سرورهای اپل.
• رمزنگاری انتها به انتها برای داده‌های بیشتر، از جمله Siri

رویداد WWDC 2025 بیش از هر زمان دیگری تمرکز خود را بر ادغام هوش مصنوعی با تجربه کاربری روزمره گذاشت.

دیدگاه شما چیست؟