海外・国内のベンチャー系ニュースサイト | TECHABLE

TECHABLE

Mobile WWDC21の基調講演に見る、アップルのOS戦略について

Mobile

WWDC21の基調講演に見る、アップルのOS戦略について

SHARE ON

このエントリーをはてなブックマークに追加

オンデバイスの処理でできることを増やすのは、プライバシーを重視するアップルの方針とも合致する

アップルは6月8日(日本時間)の未明に開催されたWWDCの基調講演で、iOS 15、iPadOS 15、watchOS 8、macOS Montereyなど、同社の主要製品に採用されるOSの最新バージョンを発表しました。

各OSは、現在開発者向けのβ版がリリースされていますが、7月には一般ユーザーの利用できるパブリックβ版が公開される予定。正式版の登場は、今秋になる見込みです。

6月8日に開催されたWWDCの基調講演では、各OSの最新バージョンが発表された。それらの新機能からは、アップルの戦略が透けて見える

ウィジェットやAppライブラリでホーム画面のユーザーインターフェイス(UI)を一新したiOS 14や、初のiPad専用OSとしてiOSから独立を果たしたiPadOS 13に比べ、やや地味な印象を与える最新OSですが、いずれもアップルの戦略に基づいたバージョンアップを遂げています。WWDCではハードウェアの発表はありませんでしたが、その内容はハードウェアの進化と密接に紐づいたものが少なくありません。中でも、同社が注力しているのが、デバイス上で処理される機械学習によるAIです。

端末やチップセットの進化と密接に紐づいた機械学習の強化が、新OSの柱の1つだ

アップルは、iPhone Xに搭載されたA11 Bionicに初めてNeural Engineを採用。これは、機械学習の処理に特化したチップで、CPUやGPUとは別に内蔵されています。A12、A13、A14とチップセットが進化するにつれ、Neural Engineの処理能力も大きく向上してきました。その性能の一端は、カメラの画質に見て取れます。現行モデルのiPhone 12に搭載されるセンサーのサイズなどのスペックは、iPhone Xのころからほぼ変わっていませんが、機械学習の活用により画質は著しく上がっています。

こうした端末上での機械学習の活用を広げていくのが、アップルの戦略。特にiOS 15やiPadOS 15では、新たに採用された機能の中に、機械学習を活用しているものが多くあります。カメラや写真の中にある文字を判別する、「Live Text」はその代表的な機能と言えるでしょう(ただし、日本語には非対応)。Live Textは、フォントのように形が決まった文字だけでなく、ホワイトボードに書いた手書きの文字も認識可能。しかも認識のための処理は、すべて端末内で行っています。近い機能にGoogleレンズがありますが、あちらは処理をクラウドで行っているのが大きな違いです。

新機能のLive Text。ホワイトボードなどに書かれた手書きの文字も認識できる

端末内での処理には、メリットが2つあります。1つは、処理速度が向上すること。5Gが始まり、通信速度は上がっているものの、クラウドと往復すると、どうしても遅延は大きくなります。端末内部で処理ができれば、よりレスポンスを高められるというわけです。もう1つがプライバシーを保護できること。クラウドに上げたからといって、即データが漏れてしまうわけではない点には留意したいところですが、処理が端末内で完結すれば、安心感は高まります。端末内でできる処理を増やしたのは、機械学習とともにプライバシー保護の姿勢を鮮明に打ち出していたアップルらしいアプローチと言えるでしょう。

オンデバイスの処理でできることを増やすのは、プライバシーを重視するアップルの方針とも合致する

Live Text以外にも、機械学習を端末内で処理することで実現した機能はあります。通知のサマリーも、その1つです。iOS 15やiPadOS 15では、様々な形で届く通知をまとめて、その概要だけを知らせる機能が搭載されています。このサマリーを作成するにあたって、重要度を判定するために使われているのが機械学習です。同様の形で、iOS 15、iPadOS 15に導入される「集中モード」でも、どのようなアプリを設定すべきかが、機械学習の結果に基づいてオススメされます。

iOS 15やiPadOS 15では、通知のサマリーが表示されるようになる

元々クラウド上で行っていた機能も、徐々に端末上での処理が可能になっています。オンデバイスのSiriがそれです。現状のSiriは、音声認識をクラウド上で行っていますが、iOS 15やiPadOS 15では、端末上での処理が実現します。背景には、端末の処理能力の向上がありそうです。その証拠に、先に挙げたLive Textは、A12 Bionic以上のチップセットを搭載するiPhoneやiPadだけが対象になります。iPhoneで言えば、iPhone XS以降で、iPhone 8やiPhone Xなどの世代以前の端末は非対応です。

Siriの音声認識が、端末上で完結するようになる。これも機械学習の活用を拡大した結果だ

アップルは、端末やOSはもちろんのこと、AシリーズやMシリーズなどのチップセットの設計まで一気通貫で手がけています。このようなビジネスモデルは、垂直統合モデルと呼ばれています。水平分業モデルに比べ、端末のバリエーションに広がりを欠く一方で、すべてのレイヤーを1社が俯瞰して見ることができるため、クオリティを担保しやすいのが特徴。端末上で機械学習に対応した機能を増やせたのも、垂直統合的なアップルの開発体制があるからこそです。

iOS 14やiPadOS 14でも、手書き文字を認識する「スクリブル」や、オンデバイスの「翻訳」などの機能に対応し、機械学習の用途を広げていたアップルですが、iOS 15やiPadOS 15では、その路線をさらに強化しています。UIの刷新のように一目でわかる派手さはないかもしれませんが、機械学習の活用による使い勝手の改善は、地道に進めています。これこそが、アップルの強みを生かしたバージョンアップと言えそうです。

(文・石野純也)

関連記事

Techableの最新情報をお届けします。
前の記事
次の記事

#関連キーワード


WHAT'S NEW

最新情報