Siri「変身計画」崩壊!Apple (AAPL.US ) 内部テスト失敗、「AI版Siri」は分割納品を余儀なくされる

智通财经APPによると、iPhoneのアップデートの詳細を複数回正確に事前に漏らしてきたApple製品のリーク情報通のマーク・ガーマン(Mark Gurman)の最新記事によると、Apple(AAPL.US)が長期にわたり計画してきたSiri音声アシスタントの大規模な人工知能アップグレード計画は、最近数週間のテストで障害に直面しており、これにより多くのファンが期待していた新AI機能のリリースが遅れる可能性がある。つまり、もともとiOS 26.4に含まれる予定だった重要なAI機能は、複数回に分けて段階的にリリースされることになり、一部の重要な機能はiOS 26.5やiOS 27まで延期される可能性がある。

ガーマンは、関係者の情報として、これらの新AI機能は当初3月にリリース予定のiOS 26.4に含める計画だったが、現在はこれらの機能を将来の複数のバージョンに分散させる作業を進めていることを伝えている。これにより、一部のAI機能は少なくともiOS 26.5(今年5月リリース予定)やiOS 27(9月リリース予定)まで遅れる可能性がある。

最新の遅延やテストの障害は、Appleの長くて困難な「人工知能の歴史」のほんの一部に過ぎない。Appleは2024年6月に、Siriを「端末側AIスーパーインテリジェンス」に改造するというAIへの野心をすでに発表していた。その年、iPhoneやiPadを含む世界で最も人気のあるスマートデバイスを持つ消費電子のリーダーは、個人データや画面内容を全面的に呼び出せる能力を持つAIアシスタントの多彩な機能を披露し、効率的かつきめ細やかなユーザー対応を実現した。

SiriのAI技術の基盤は、Googleが独占的に提供する最先端のAI大規模モデル「Gemini AI」によって支えられる予定だ。1月に、米国の巨大IT企業Alphabet傘下のGoogleは、Appleと長期契約を結び、iPhoneやiPadの端末側AI技術の中核を担うAI大規模モデルの支援を提供していることを確認した。この契約には、アップデート後に新たなAI機能を搭載したSiri AI音声アシスタントも含まれる。

このAI協力関係は双方にとって大きな追い風となり、AppleのSiriはAIを基盤とした革新的な変革を迎えた。契約の推進により、Googleの親会社Alphabetの時価総額は初めて4兆ドルの大台に乗り、NVIDIA(4.5兆ドル)に次ぐ規模となった。

「底層の端末側大規模モデル」の厳密な定義からすると、今回のAppleのAI機能の進展は、GoogleのGeminiを助けとして、SiriやAppleのインテリジェンス層の「アップグレード/より強力な頭脳の外付け」とも言える。GoogleとAppleの共同声明によると、Appleの次世代Apple Foundation Modelsは、「Geminiを基盤とした独占的AI大規模モデルとクラウドコンピューティング技術」に基づき、「より個別化されたSiri AI音声アシスタント」など、今後のAppleの多くの独自AI機能に利用される予定だ。ただし、現段階ではAppleのインテリジェンスAI機能は引き続きAppleユーザーに提供される。

AI大規模モデルとPCやスマートフォンなどの消費電子端末を全面的に融合させ、ローカルデバイス上で推論性能を高めつつ、巨大なクラウドAI計算資源も呼び出せる「端末側AI」の構築は、世界中の多くの消費電子企業のAI戦略の最重要課題となっている。

ファンの間では、Siriのアップデートにおいて、クラウドと端末側AI大規模モデルの支援を受けて、AppleのSiriは従来のぎこちない定型的な音声アシスタントから脱却し、クラウドAIの計算資源と端末側の生成型人工知能機能を組み合わせることで、よりユーザーの個別ニーズに応える「プライベートAIアシスタント」へと進化し、映画『HER』のような「万能AIパートナー」の実現も期待されている。Appleは、アップデート後のSiriはユーザーの個人情報を活用し、さまざまなアプリで質問に答えたり操作を実行したりできると表明している。

何度も延期!アップグレード版Siri AIスーパー音声アシスタントのリリース遅延

アップグレード版のSiri音声アシスタントは、Appleのスマートデバイスユーザーが音声だけで自社およびサードパーティのアプリを正確に操作できるようにする予定だ。これらの新機能は、もともと2025年前半にリリースされる計画だった。

昨春、Appleはリリースを延期し、新しいSiriは2026年初頭に登場すると発表したが、具体的な時期は一切公表されていない。ガーマンによると、社内ではAppleの経営陣は2026年3月を目標としており、iOS 26.4に合わせてリリースする予定だったが、その目標は先月まで変わらなかった。

しかし、関係者によると、最新のテストでソフトウェアに新たな問題が見つかり、再度延期の決定が下されたという。これらの関係者は匿名を条件としており、内部情報である。彼らは、Siriはユーザーの問い合わせに正確に対応できない場合や、リクエスト処理に時間がかかりすぎる場合があると指摘している。

状況は流動的であり、Appleの新しいSiriのリリース計画はさらに調整される可能性がある。カリフォルニア州クパチーノに本社を置く同社の広報はコメントを控えた。

水曜日の発表後、Appleの株価は一時的に上昇分の一部を吐き出した。水曜日の米国株市場の終値は0.67%高の275.50ドルで、早朝には2.4%高まで上昇した。市場のリスク回避ムードやiPhone需要の楽観的見通しに支えられ、Apple株はS&P500指数を上回るパフォーマンスを見せた。

ガーマンは、最近の数日間、Appleはエンジニアに対し、間もなくリリースされるiOS 26.5を使って新しいSiri機能のテストを行うよう指示しており、これが少なくとも一つのバージョン遅れを示唆していると述べている。このアップデートの内部バージョンには、Siriの強化機能の一部を追加する旨の説明も含まれている。

特に遅れる可能性が高いのは、Siriが個人データを呼び出す拡張機能だ。この技術により、ユーザーはAIスーパーアシスタントに過去のメッセージを検索させたり、友人と共有されたポッドキャストを即座に再生させたりできるようになる。

iOS 26.5の内部ビルドには、機能のプレビューを有効にする設定スイッチも含まれており、Appleはユーザーに対して、最初のリリースは未完成または信頼性に欠ける可能性があることを通知するかどうかを検討していることを示唆している。これは、新OSのベータテストで採用されている手法に似ている。

ガーマンは、他にも進捗が遅れている機能として、アプリ内操作を音声で制御するための高度なコマンド体系「アプリインテント」の開発も挙げている。これにより、ユーザーは一つの指示で画像を検索・編集・送信まで一連の操作を完了できる。

iOS 26.5のテストを行った一部のApple社員は、これらの機能は初期段階のサポートはあるものの、すべての状況で信頼性を確保できていないと述べている。

また、正確性の問題や、ユーザーが早口で話すとSiriが割り込むバグ、複雑なクエリの処理に時間がかかる問題も報告されている。

もう一つの課題は、新しいSiriが、OpenAIのChatGPTを用いた生成型AIアプリとのシンプルな統合に退行してしまうケースがあることだ。これは、Siriが本来対応できるはずのユーザーリクエストに対しても起こり得る。

2025年末の内部バージョンのSiriは非常に遅く、関係者はリリースをさらに数か月延期せざるを得ないと考えている。

Appleの幹部は長らく、2024年6月に発表されたAIソフトウェアアシスタントのリリースが2026年春以降に遅れることを望んでいないと堅持してきた。最近数週間も、Appleは今月または来月にリリースを予定している。

Siriは「Gemini AI基盤」を搭載へ!AppleとGoogleの協力による端末側AI革新

しかし、これは非常に複雑な工程だ。改良されたSiri AI音声アシスタントは、新たなアーキテクチャ「Linwood」を基盤とし、Appleの大規模言語モデルプラットフォーム「Apple Foundations Models」に依存している。このプラットフォームは、Googleの最先端AI技術を取り入れたGoogle Geminiチームの技術も導入されている。

ガーマンによると、iOS 26.5のテスト版には、Appleがまだ正式に発表していない重要な追加機能が二つ含まれている。一つは新しいネット検索ツール、もう一つはカスタム画像生成機能だ。Appleは以前のiOS 26.4のテスト段階でもこれらの能力を試しており、これにより一部の新しいSiri機能は予定通りに登場する可能性も示唆されている。

ネット検索機能は、PerplexityやGoogle検索のGemini部分に似た仕組みで動作し、ユーザーがネットから情報を取得し、AI技術を用いて生成した回答や要約リスト、関連ウェブサイトのリンクを返す。

画像生成機能は、AppleのImage Playgroundアプリと同じスーパーエンジンを使用しているが、iOS 26.5のテスト関係者は、この機能はまだ安定性に欠けると指摘している。

ガーマンは、これらのアップグレードに加え、AppleはiOS 27、iPadOS 27、macOS 27向けに、まったく新しいAI計画を進めていると述べている。それは、従来のSiriを根本的に再構築し、未来的なチャットボットのように動作させるもので、Googleのサーバーとより高度なカスタムGemini AIモデルによって支えられる。

このプロジェクトは「Campo」と呼ばれ、AIをAppleの主要なOSに深く統合し、ChatGPTのようなAIアシスタントと一致するユーザーインターフェースと機能を提供することを目指している。同時に、Appleは独立したSiriアプリを通じてこのシステムをテストし、ユーザーがこれまでのチャット履歴を管理できるようにしている。

次世代Siriの操作インターフェースの重要な要素は、OS全体を横断して機能を制御し、個人データ(ファイルなど)を特定できることだ。Appleはまた、メールやカレンダー、Safariなどの重要な自社アプリに新しいSiriコアエンジンを導入する計画もある。

AppleのCEOティム・クックは、先週の全社員会議で、今後さらに多くの変化があることを示唆した。彼は、AI能力を強化するための新しいデータセンター用AIチップの開発も進めていると述べた。

「Apple Siliconは、私たちのデバイスに合わせたデータセンターソリューションを構築することを可能にしています」とクックは語った。「将来に向けて、私たちの取り組みは新しい製品やサービスのカテゴリーを生み出すことになるでしょう。」

クックは、おそらく長年開発されている高性能クラウドAI処理用チップ「Baltra」を指していると考えられる。

Appleの個人データ機能の開発期間が長引く一因は、同社の厳格なプライバシー方針にあると考えられる。同じ会議で、ソフトウェアエンジニアリング責任者のCraig Federighiは、パーソナライズされたAIはユーザーデータを公開してはならないと強調した。

「私たちは、モデルがあなたの質問を受け取る際、そのデータのプライバシーを保持することが非常に重要だと考えています」と彼は述べ、「業界の標準的なやり方は、そのデータをサーバーに送信し、記録・露出させ、トレーニングに利用することです」と付け加えた。

これに対し、Federighiは、「私たちはリードしている」とし、「ユーザーの端末にとどまるか、プライバシー保護されたプライベートサーバーに送信されるAIを作り出すことを目指している」と述べた。また、認証情報や合成データ(人工的に生成されたデータで、実世界の入力を模倣するもの)も利用しており、ユーザーデータを直接取り込むのではないと説明した。

「これらすべての要素を組み合わせることで、私たちはより個別化され、非常に強力な独自AI体験を提供できる」と彼は語り、「このアプローチは最終的に業界全体に採用されると信じている」と締めくくった。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン