اپل با رونمایی از ویژگی «ترجمه زنده» در رویداد WWDC 2025، قدمی بلند در مسیر هوش مصنوعی شخصی برداشت. این قابلیت بخشی از مجموعه جدید Apple Intelligence است که تماسها و پیامها را بهصورت همزمان و با صدای مصنوعی ترجمه میکند و تجربه ارتباط میانزبانی را متحول کرده است.
به گزارش پایگاه خبری بانکداری الکترونیک به نقل از فابانیوز،اپل در iOS 26 و iPadOS 26 قابلیتی معرفی کرد که تماسهای صوتی، مکالمات فیستایم و حتی پیامهای متنی را بهصورت زنده، آنی و با صدای مصنوعی ترجمه میکند. این ترجمه در همان لحظه مکالمه و روی دستگاه (on-device) انجام میشود، بدون نیاز به اتصال به اینترنت.
این قابلیت در:
• اپلیکیشنهای Phone، FaceTime و Messages
• سیستمهای iOS 26، iPadOS 26 و watchOS 26
• دستگاههایی مانند iPhone 15 Pro، iPadهای مجهز به تراشه M1 به بعد، و اپلواچ سری ۹ و ۱۰ و Ultra 2 در دسترس خواهد بود.
اپل وعده داده است که این ویژگی حتی در تماس با گوشیهای غیر اپلی هم فعال خواهد بود.
پشتیبانی زبانها؟
در حالی که اپل هنوز فهرست زبانهای قابل ترجمه را منتشر نکرده، تحلیلگران انتظار دارند در نسخه اولیه، زبانهای انگلیسی، اسپانیایی، فرانسوی، آلمانی، چینی و ژاپنی پشتیبانی شوند. وبسایت The Verge گزارش داده اپل در همکاری با OpenAI از مدلهای چندزبانه GPT-4o برای این بخش بهره برده است.
جزئیات قابلیت ترجمه زنده:
در نسخه جدید iOS 26 و iPadOS 26، ابزار ترجمه زنده به سه برنامه اصلی Phone، Messages و FaceTime اضافه شده است. این ترجمهها به صورت آنی، با صدای مصنوعی و زیرنویس همزمان ارائه میشوند.
• در تماسهای صوتی یا ویدیویی، صدای طرف مقابل همزمان به زبان شما ترجمه میشود.
• در پیامها، هنگام تایپ، متن بهصورت خودکار به زبان مقصد تبدیل میگردد.
• قابلیت در ارتباط با دستگاههای غیر اپلی نیز کار میکند.
• ترجمه چتهای گروهی نیز پشتیبانی میشود.
به گفته لزلی ایکهموتو، این ویژگی حتی بدون نیاز به اینترنت ابری و صرفاً با توان پردازشی روی دستگاه فعال است.
چه دستگاههایی پشتیبانی میکنند؟
Apple Intelligence فقط در دستگاههایی فعال میشود که از چیپ A17 Pro یا سری M اپل بهرهمندند. در حال حاضر:
• آیفون ۱۵ پرو و بالاتر
• آیپدهای M1 به بعد
• مکهای دارای چیپ M1 یا جدیدتر
• مکهای دارای چیپ M1 یا جدیدتر
• اپل واچهای سری ۹، ۱۰ و مدل Ultra 2 (با پشتیبانی از ترجمه در Messages در watchOS 26)
آیا این ویژگی به ایرپاد هم میرسد؟
اگرچه شایعاتی درباره آوردن ترجمه زنده به AirPods به گوش میرسید، اما در WWDC امسال هیچ اشاره مستقیمی به این موضوع نشد. با توجه به سابقه گوگل در ارائه این قابلیت در Pixel Buds، ممکن است اپل در رویداد پاییزه سختافزاری خود درباره آن صحبت کند.
دیگر اتفاقات مهم WWDC 2025:
iOS 26:
• تمرکز بر امنیت حریم خصوصی با پردازش داخلی دادهها
• طراحی سادهتر و شخصیسازیشده برای اعلانها
• بهبود تعامل با ویجتها و اکشنهای فوری
• اضافه شدن حالت نوشتاری دستی در iMessage برای زبانهای بیشتر
iPadOS 26:
• اپلیکیشنهای حرفهای مثل Final Cut Pro با کنترل لمسی بهتر
• قابلیت Split View هوشمندتر
• استفاده از Apple Intelligence در نوشتار، خلاصهسازی و ترجمه متن
macOS Sequoia:
• ویژگی جدید iPhone Mirroring: کاربران مک اکنون میتوانند آیفون خود را مستقیماً در دسکتاپ macOS کنترل کنند، نوتیفیکیشنها، تماسها و حتی اپلیکیشنهای آیفون روی صفحه مک نمایش داده میشود.
• Apple Intelligence در مک نیز فعال شده و ابزارهایی مثل خلاصهسازی ایمیلها، بازنویسی اسناد، تولید خودکار متن در Pages و Numbers را به ارمغان آورده است.
• حالت Focus هوشمندتر که بهصورت پویا برنامههای مزاحم را محدود میکند.
• بهبود عملکرد Safari با Highlights، که بهصورت خودکار اطلاعات مهم صفحات وب را استخراج و برجسته میکند.
Siri جدید:
• سیری حالا با Apple Intelligence بازطراحی شده، طبیعیتر، شخصیتر و با قابلیتهای متنی جدید. میتواند عملکردهای پیچیده را در اپها انجام دهد (مثلاً: “به محسن! بگو که ساعت جلسه رو در تقویم عوض کردم و براش ایمیل بفرست”).
• قابلیت گفتوگو متنی با سیری بدون نیاز به صدا
• درک بهتر زمینه، حتی اگر درخواست کاربر مبهم یا ناقص باشد
Privacy و امنیت:
• معرفی Private Cloud Compute؛ مدلی که امکان استفاده از قدرت پردازش ابری برای هوش مصنوعی را فراهم میکند، بدون ارسال دادههای خصوصی به سرورهای اپل.
• رمزنگاری انتها به انتها برای دادههای بیشتر، از جمله Siri
رویداد WWDC 2025 بیش از هر زمان دیگری تمرکز خود را بر ادغام هوش مصنوعی با تجربه کاربری روزمره گذاشت.

دیدگاه شما چیست؟