Как Apple реализует ИИ-функции в iOS 18?

В преддверии конференции WWDC 2024, выяснилось, что Apple планирует внедрение в iOS 18 собственных локальных моделей больших языковых моделей (LLM), что позволит выполнить множество умных функций прямо на устройствах. Такой подход направлен на увеличение скорости обработки данных и доступности функций даже без подключения к интернету. Однако это также означает, что интеллектуальные способности устройств будут ограничены по сравнению с облачными вычислениями.

Работа локальных нейросетей и их преимущества

Модель под кодовым именем Ajax будет работать в двух режимах: автономно и через облако. Локальная обработка данных обеспечивает пользователю мгновенный отклик и повышает конфиденциальность, так как все данные остаются исключительно на устройстве. Этот подход поддерживает философию Apple о приватности данных.

Ограничения и интеграция с сервисами

Из-за ограниченной вычислительной мощности смартфонов, локальные LLM не будут столь продвинуты, как, например, ChatGPT или Google Gemini. Вместо создания полноценного чат-бота Apple интегрирует ИИ как дополнения к существующим приложениям и функциям. По неофициальной информации это будут следующие умные функции:

  • Автоматические плейлисты в Apple Music.
  • Обновлённый поиск Spotlight и помощник Siri.
  • Подсказки и обобщение сообщений в iMessage.
  • Виртуальный тренер в Apple Health.
  • Помощник по кодированию в Xcode.

Улучшения в аппаратной части ограничит ИИ-функции последними моделями iPhone

В iPhone за обработку задач искусственного интеллекта и машинного обучения отвечает сопроцессор Neural Engine. Этот компонент впервые был представлен в 2017 году вместе с чипом A11 Bionic, который дебютировал в iPhone 8 и iPhone X.

Neural Engine оптимизирован для выполнения сложных математических расчётов, которые требуются при работе с нейросетями, что позволяет выполнять такие задачи, как распознавание образов, обработка естественного языка, и анализ аудио. Это не только ускоряет работу приложений, использующих ИИ, но и существенно снижает потребление энергии по сравнению с обработкой тех же задач центральным процессором.

С каждым новым поколением чипов Apple производительность Neural Engine значительно увеличивается. Например, в A11 Bionic он мог выполнить до 600 миллиардов операций в секунду. К моменту выпуска iPhone 15 Pro, этот показатель вырос до 35 триллионов операций в секунду благодаря улучшениям в архитектуре Neural Engine, встроенного в чип A15 и последующие модели. В рейтинге бенчмарка Geekbench ML, который используется для оценки производительности машинного обучения и искусственного интеллекта устройств, мобильные устройства Apple занимают первые восемь мест.

Для поддержания ещё более сложных задач, новые модели iPhone будут оснащены улучшенным нейропроцессором, что, скорее всего, ограничит доступность большинства передовых функций ИИ только для последнего поколения устройств.

© Comss.one. По материалам 4pda.to

Анализ
×
Apple
Сфера деятельности:Связь и ИТ
129
Google
Сфера деятельности:Образование и наука
84
Apple iOS
Производитель:Apple
90
Apple Music
Производитель:Apple
21
Apple iPhone
Производитель:Apple
68
iPhone 8
Продукты
14
iPhone X
Продукты
10