Марк Гурман, известный своими точными предварительными утечками о обновлениях iPhone, заявил в своем последнем посте, что долгосрочный план компании Apple (AAPL.US) по крупному обновлению искусственного интеллекта для голосового помощника Siri столкнулся с препятствиями во время последних тестов. Это может привести к задержкам в выпуске нескольких ожидаемых новых функций AI, и, скорее всего, основные AI-функции, запланированные для iOS 26.4, будут разделены на несколько этапов и выпущены поэтапно — некоторые ключевые функции могут быть отложены до iOS 26.5 или даже iOS 27.
Гурман ссылается на источники, которые сообщили, что первоначально эти новые AI-функции должны были войти в iOS 26.4 — обновление системы, запланированное на март. В настоящее время Apple работает над тем, чтобы распределить эти функции по будущим версиям. Это означает, что некоторые AI-функции могут быть отложены как минимум до iOS 26.5 (предположительно, выпуск в мае этого года) и iOS 27 (предположительно, сентябрь).
Последние задержки и проблемы с тестированием — лишь небольшая часть долгого и сложного пути Apple в области искусственного интеллекта. Еще в июне 2024 года компания объявила о преобразовании Siri в «AI-суперинтеллект на стороне устройства». В тот год, лидер потребительской электроники с самыми популярными продуктами — iPhone и iPad — продемонстрировал ряд возможностей, позволяющих AI-ассистенту полноценно использовать личные данные и содержимое экрана для более эффективного и персонализированного выполнения запросов пользователей.
Что касается базы технологий AI для Siri, она будет основана на одном из самых передовых крупных языковых моделей — эксклюзивной Gemini AI от Google. В январе американский технологический гигант Alphabet подтвердил, что заключил многолетнее соглашение с Apple, лидером в области потребительской электроники с популярными iPhone и iPad, для поддержки их AI-технологий на стороне устройства, включая обновленную версию Siri с новыми AI-функциями.
Это сотрудничество — важное событие для обеих сторон: Siri наконец-то получит прорыв в AI, а капитализация Alphabet достигла рекордных 4 трлн долларов, впервые превысив этот уровень благодаря долгосрочному соглашению с Apple, что сделало ее второй по величине компанией после Nvidia (4.5 трлн долларов).
С точки зрения инженерного определения «глубокой модели на стороне устройства», внедрение Gemini в Siri и Apple Intelligence — скорее «обновление уровня интеллекта» или «подключение более мощного мозга» к существующей системе. Согласно совместному заявлению Google и Apple, будущие модели Apple Foundation Models будут основаны на «эксклюзивной AI-модели Gemini и облачных вычислительных технологиях», и будут использоваться для новых функций, таких как «более персонализированный Siri AI-голосовой помощник». Однако текущие функции Apple Intelligence AI продолжат работать для пользователей.
Интеграция крупных моделей искусственного интеллекта с ПК, смартфонами и другими потребительскими устройствами — одна из ключевых задач глобальных технологических компаний в области AI. Цель — создать мощные модели, способные работать офлайн на локальных устройствах, а также использовать облачные ресурсы для удовлетворения более глубоких личных потребностей пользователей — так называемый «AI на стороне устройства». Это стало центральной частью стратегий многих компаний в сфере потребительской электроники.
В рамках обновлений Siri, предполагается, что благодаря облачным и локальным AI-моделям, Siri перестанет быть просто формальным голосовым помощником. Объединив облачные вычислительные ресурсы и генеративный AI на стороне устройства, Apple надеется создать «личного AI-ассистента», который будет максимально соответствовать индивидуальным потребностям пользователя — подобно универсальному AI-партнеру из фильма «Она». Компания заявила, что после обновления Siri сможет использовать личные данные для ответа на вопросы и выполнения команд в различных приложениях.
Несмотря на обещания, обновление Siri неоднократно откладывалось!
Новая версия Siri должна была позволять пользователям управлять приложениями голосом, включая собственные и сторонние. Все эти функции планировалось запустить к началу 2025 года.
В прошлом году Apple отложила запуск, заявив, что новая Siri появится в начале 2026 года. Однако конкретных сроков компания не объявляла. Гурман сообщает, что внутри компании руководство ориентируется на март 2026 года — вместе с iOS 26.4, и эта цель оставалась неизменной до прошлого месяца.
Однако источники сообщили, что последние тесты выявили новые проблемы, что привело к очередной задержке. Анонимные источники, пожелавшие остаться неизвестными, объяснили, что Siri не всегда правильно обрабатывает запросы или требует слишком много времени на выполнение.
Это динамичная ситуация, и планы по выпуску новой версии Siri могут еще измениться. Представитель компании, базирующейся в Купертино, отказался комментировать.
После сообщений в среду акции Apple немного откатились. На закрытии торгов в среду цена выросла на 0.67%, до 275.50 долларов. Ранее она достигала роста до 2.4%. В условиях рыночных опасений и позитивных ожиданий по спросу на iPhone, акции Apple превзошли индекс S&P 500.
Гурман отметил, что в последние дни Apple попросила инженеров протестировать новую Siri на iOS 26.5, что намекает на задержку как минимум на один релиз. Внутренний билд этой версии содержит подсказку о новых функциях Siri.
Особенно сильно задерживается расширенная интеграция Siri с личными данными — возможность, которая позволит, например, искать старые сообщения или находить и воспроизводить подкасты, которыми делился друг.
Внутренний билд iOS 26.5 также включает настройку, позволяющую сотрудникам предварительно активировать эти функции, что говорит о том, что Apple взвешивает, стоит ли предупреждать пользователей о неполной или нестабильной работе новых функций при запуске.
Гурман отмечает, что другие отстающие функции включают расширенную систему команд для голосового управления приложениями — так называемые app intents, которые позволят, например, быстро находить и редактировать изображения по голосовой команде.
Некоторые тестировщики iOS 26.5 сообщили, что эти функции работают на начальных этапах, но не всегда надежно.
Также есть проблемы с точностью и баги, например, Siri может перебивать пользователя при быстром разговоре или неправильно обрабатывать сложные запросы, требующие больше времени.
Еще одна проблема — иногда новая Siri возвращается к простому интегрированию с генеративными AI-приложениями, например ChatGPT, вместо использования собственной AI-технологии Apple, даже когда она должна была бы справляться с запросами.
К концу 2025 года внутренние версии Siri остаются очень медленными, и разработчики считают, что релиз придется отложить еще на несколько месяцев.
Руководство Apple давно придерживается цели не откладывать презентацию AI-ассистента, запланированную на июнь 2024 года, на после 2026 года. В последние недели компания все еще планирует выпустить его в этом или следующем месяце.
Siri скоро получит «Gemini AI»! Apple объединяется с Google для революции на стороне устройства
Это очень сложная задача. Обновленная Siri основана на новой архитектуре под кодовым названием Linwood. Ее программное обеспечение будет зависеть от платформы крупных языковых моделей — Apple Foundations Models, которая сейчас внедряет передовые AI-технологии команды Google Gemini от Alphabet.
Гурман отмечает, что текущая тестовая версия iOS 26.5 включает два важных, ранее не объявленных дополнения: новый инструмент поиска в сети и настройку генерации изображений. Эти функции уже тестировались в iOS 26.4, что указывает на возможность их скорого появления в новых версиях Siri.
Инструмент поиска в сети будет работать аналогично Gemini в Perplexity или Google Search, позволяя получать информацию из интернета и предоставлять ответы, сводки и ссылки на сайты с помощью AI.
Функция генерации изображений использует тот же движок, что и приложение Image Playground, однако источники внутри Apple отмечают, что она пока недостаточно стабильна.
Гурман сообщает, что кроме этих обновлений, Apple разрабатывает для iOS 27, iPadOS 27 и macOS 27 масштабную новую AI-программу — полностью переработанный Siri, который будет работать как современный чат-бот. Он будет поддерживаться серверами Google и более продвинутой кастомной моделью Gemini AI.
Этот проект под кодовым названием Campo направлен на глубокую интеграцию AI в все основные операционные системы Apple, создавая интерфейс и функции, соответствующие ожиданиям пользователей, похожие на ChatGPT. Также Apple тестирует отдельное приложение Siri, позволяющее управлять историей взаимодействий с этим чат-ботом.
Ключевая особенность следующего поколения интерфейса Siri — возможность управлять функциями по всему устройству и получать доступ к личным данным (например, файлам). Apple планирует использовать новый ядро Siri в своих важных собственных приложениях, таких как почта, календарь и Safari.
Генеральный директор Apple Тим Кук на недавней встрече с сотрудниками намекнул, что в будущем ожидается еще больше изменений. Он заявил, что компания разрабатывает новые AI-чипы для дата-центров, чтобы усилить AI-возможности.
«Apple Silicon позволяет нам создавать специально адаптированные решения для наших устройств и дата-центров», — сказал он. «Я считаю, что в будущем наши разработки откроют новые категории продуктов и услуг».
Вероятно, он имел в виду Baltra — долгосрочный проект по созданию высокопроизводительных чипов для обработки AI-работы в облаке.
Одна из причин, почему разработка функций для личных данных занимает больше времени, — строгая политика конфиденциальности компании. На той же встрече руководитель отдела программного обеспечения Крейг Федерих отметил, что персонализированный AI не должен раскрывать пользовательские данные.
«Мы считаем, что очень важно сохранять конфиденциальность данных, когда модель получает ваш вопрос», — сказал он. «Стандартная практика — отправлять эти данные на сервер, где они записываются, раскрываются компании и используются для обучения».
Вместо этого, по словам Федериха, Apple «ведет за собой»: создавая AI, который либо остается на устройстве пользователя, либо отправляется на приватные серверы с защитой конфиденциальности. Компания также использует авторизованные данные и синтетические данные, созданные искусственно, чтобы моделировать реальные входные данные, а не брать их напрямую у пользователей.
«Объединив все эти факторы, мы можем предложить персонализированный и очень мощный уникальный AI-опыт, который все глубже проникает в нашу жизнь», — добавил он. «Я уверен, что подход Apple в конечном итоге будет принят всей индустрией».
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Проект "Преображение Siri" распылен! Внутренние тесты Apple(AAPL.US) провалились. "AI-версия Siri" вынуждена поэтапно внедряться
Марк Гурман, известный своими точными предварительными утечками о обновлениях iPhone, заявил в своем последнем посте, что долгосрочный план компании Apple (AAPL.US) по крупному обновлению искусственного интеллекта для голосового помощника Siri столкнулся с препятствиями во время последних тестов. Это может привести к задержкам в выпуске нескольких ожидаемых новых функций AI, и, скорее всего, основные AI-функции, запланированные для iOS 26.4, будут разделены на несколько этапов и выпущены поэтапно — некоторые ключевые функции могут быть отложены до iOS 26.5 или даже iOS 27.
Гурман ссылается на источники, которые сообщили, что первоначально эти новые AI-функции должны были войти в iOS 26.4 — обновление системы, запланированное на март. В настоящее время Apple работает над тем, чтобы распределить эти функции по будущим версиям. Это означает, что некоторые AI-функции могут быть отложены как минимум до iOS 26.5 (предположительно, выпуск в мае этого года) и iOS 27 (предположительно, сентябрь).
Последние задержки и проблемы с тестированием — лишь небольшая часть долгого и сложного пути Apple в области искусственного интеллекта. Еще в июне 2024 года компания объявила о преобразовании Siri в «AI-суперинтеллект на стороне устройства». В тот год, лидер потребительской электроники с самыми популярными продуктами — iPhone и iPad — продемонстрировал ряд возможностей, позволяющих AI-ассистенту полноценно использовать личные данные и содержимое экрана для более эффективного и персонализированного выполнения запросов пользователей.
Что касается базы технологий AI для Siri, она будет основана на одном из самых передовых крупных языковых моделей — эксклюзивной Gemini AI от Google. В январе американский технологический гигант Alphabet подтвердил, что заключил многолетнее соглашение с Apple, лидером в области потребительской электроники с популярными iPhone и iPad, для поддержки их AI-технологий на стороне устройства, включая обновленную версию Siri с новыми AI-функциями.
Это сотрудничество — важное событие для обеих сторон: Siri наконец-то получит прорыв в AI, а капитализация Alphabet достигла рекордных 4 трлн долларов, впервые превысив этот уровень благодаря долгосрочному соглашению с Apple, что сделало ее второй по величине компанией после Nvidia (4.5 трлн долларов).
С точки зрения инженерного определения «глубокой модели на стороне устройства», внедрение Gemini в Siri и Apple Intelligence — скорее «обновление уровня интеллекта» или «подключение более мощного мозга» к существующей системе. Согласно совместному заявлению Google и Apple, будущие модели Apple Foundation Models будут основаны на «эксклюзивной AI-модели Gemini и облачных вычислительных технологиях», и будут использоваться для новых функций, таких как «более персонализированный Siri AI-голосовой помощник». Однако текущие функции Apple Intelligence AI продолжат работать для пользователей.
Интеграция крупных моделей искусственного интеллекта с ПК, смартфонами и другими потребительскими устройствами — одна из ключевых задач глобальных технологических компаний в области AI. Цель — создать мощные модели, способные работать офлайн на локальных устройствах, а также использовать облачные ресурсы для удовлетворения более глубоких личных потребностей пользователей — так называемый «AI на стороне устройства». Это стало центральной частью стратегий многих компаний в сфере потребительской электроники.
В рамках обновлений Siri, предполагается, что благодаря облачным и локальным AI-моделям, Siri перестанет быть просто формальным голосовым помощником. Объединив облачные вычислительные ресурсы и генеративный AI на стороне устройства, Apple надеется создать «личного AI-ассистента», который будет максимально соответствовать индивидуальным потребностям пользователя — подобно универсальному AI-партнеру из фильма «Она». Компания заявила, что после обновления Siri сможет использовать личные данные для ответа на вопросы и выполнения команд в различных приложениях.
Несмотря на обещания, обновление Siri неоднократно откладывалось!
Новая версия Siri должна была позволять пользователям управлять приложениями голосом, включая собственные и сторонние. Все эти функции планировалось запустить к началу 2025 года.
В прошлом году Apple отложила запуск, заявив, что новая Siri появится в начале 2026 года. Однако конкретных сроков компания не объявляла. Гурман сообщает, что внутри компании руководство ориентируется на март 2026 года — вместе с iOS 26.4, и эта цель оставалась неизменной до прошлого месяца.
Однако источники сообщили, что последние тесты выявили новые проблемы, что привело к очередной задержке. Анонимные источники, пожелавшие остаться неизвестными, объяснили, что Siri не всегда правильно обрабатывает запросы или требует слишком много времени на выполнение.
Это динамичная ситуация, и планы по выпуску новой версии Siri могут еще измениться. Представитель компании, базирующейся в Купертино, отказался комментировать.
После сообщений в среду акции Apple немного откатились. На закрытии торгов в среду цена выросла на 0.67%, до 275.50 долларов. Ранее она достигала роста до 2.4%. В условиях рыночных опасений и позитивных ожиданий по спросу на iPhone, акции Apple превзошли индекс S&P 500.
Гурман отметил, что в последние дни Apple попросила инженеров протестировать новую Siri на iOS 26.5, что намекает на задержку как минимум на один релиз. Внутренний билд этой версии содержит подсказку о новых функциях Siri.
Особенно сильно задерживается расширенная интеграция Siri с личными данными — возможность, которая позволит, например, искать старые сообщения или находить и воспроизводить подкасты, которыми делился друг.
Внутренний билд iOS 26.5 также включает настройку, позволяющую сотрудникам предварительно активировать эти функции, что говорит о том, что Apple взвешивает, стоит ли предупреждать пользователей о неполной или нестабильной работе новых функций при запуске.
Гурман отмечает, что другие отстающие функции включают расширенную систему команд для голосового управления приложениями — так называемые app intents, которые позволят, например, быстро находить и редактировать изображения по голосовой команде.
Некоторые тестировщики iOS 26.5 сообщили, что эти функции работают на начальных этапах, но не всегда надежно.
Также есть проблемы с точностью и баги, например, Siri может перебивать пользователя при быстром разговоре или неправильно обрабатывать сложные запросы, требующие больше времени.
Еще одна проблема — иногда новая Siri возвращается к простому интегрированию с генеративными AI-приложениями, например ChatGPT, вместо использования собственной AI-технологии Apple, даже когда она должна была бы справляться с запросами.
К концу 2025 года внутренние версии Siri остаются очень медленными, и разработчики считают, что релиз придется отложить еще на несколько месяцев.
Руководство Apple давно придерживается цели не откладывать презентацию AI-ассистента, запланированную на июнь 2024 года, на после 2026 года. В последние недели компания все еще планирует выпустить его в этом или следующем месяце.
Siri скоро получит «Gemini AI»! Apple объединяется с Google для революции на стороне устройства
Это очень сложная задача. Обновленная Siri основана на новой архитектуре под кодовым названием Linwood. Ее программное обеспечение будет зависеть от платформы крупных языковых моделей — Apple Foundations Models, которая сейчас внедряет передовые AI-технологии команды Google Gemini от Alphabet.
Гурман отмечает, что текущая тестовая версия iOS 26.5 включает два важных, ранее не объявленных дополнения: новый инструмент поиска в сети и настройку генерации изображений. Эти функции уже тестировались в iOS 26.4, что указывает на возможность их скорого появления в новых версиях Siri.
Инструмент поиска в сети будет работать аналогично Gemini в Perplexity или Google Search, позволяя получать информацию из интернета и предоставлять ответы, сводки и ссылки на сайты с помощью AI.
Функция генерации изображений использует тот же движок, что и приложение Image Playground, однако источники внутри Apple отмечают, что она пока недостаточно стабильна.
Гурман сообщает, что кроме этих обновлений, Apple разрабатывает для iOS 27, iPadOS 27 и macOS 27 масштабную новую AI-программу — полностью переработанный Siri, который будет работать как современный чат-бот. Он будет поддерживаться серверами Google и более продвинутой кастомной моделью Gemini AI.
Этот проект под кодовым названием Campo направлен на глубокую интеграцию AI в все основные операционные системы Apple, создавая интерфейс и функции, соответствующие ожиданиям пользователей, похожие на ChatGPT. Также Apple тестирует отдельное приложение Siri, позволяющее управлять историей взаимодействий с этим чат-ботом.
Ключевая особенность следующего поколения интерфейса Siri — возможность управлять функциями по всему устройству и получать доступ к личным данным (например, файлам). Apple планирует использовать новый ядро Siri в своих важных собственных приложениях, таких как почта, календарь и Safari.
Генеральный директор Apple Тим Кук на недавней встрече с сотрудниками намекнул, что в будущем ожидается еще больше изменений. Он заявил, что компания разрабатывает новые AI-чипы для дата-центров, чтобы усилить AI-возможности.
«Apple Silicon позволяет нам создавать специально адаптированные решения для наших устройств и дата-центров», — сказал он. «Я считаю, что в будущем наши разработки откроют новые категории продуктов и услуг».
Вероятно, он имел в виду Baltra — долгосрочный проект по созданию высокопроизводительных чипов для обработки AI-работы в облаке.
Одна из причин, почему разработка функций для личных данных занимает больше времени, — строгая политика конфиденциальности компании. На той же встрече руководитель отдела программного обеспечения Крейг Федерих отметил, что персонализированный AI не должен раскрывать пользовательские данные.
«Мы считаем, что очень важно сохранять конфиденциальность данных, когда модель получает ваш вопрос», — сказал он. «Стандартная практика — отправлять эти данные на сервер, где они записываются, раскрываются компании и используются для обучения».
Вместо этого, по словам Федериха, Apple «ведет за собой»: создавая AI, который либо остается на устройстве пользователя, либо отправляется на приватные серверы с защитой конфиденциальности. Компания также использует авторизованные данные и синтетические данные, созданные искусственно, чтобы моделировать реальные входные данные, а не брать их напрямую у пользователей.
«Объединив все эти факторы, мы можем предложить персонализированный и очень мощный уникальный AI-опыт, который все глубже проникает в нашу жизнь», — добавил он. «Я уверен, что подход Apple в конечном итоге будет принят всей индустрией».