「AI特化型半導体」があなたのスマホに知性を宿らせる

予測

モバイルフォンはAI特化型半導体の採用で否応なくAIドリブンになっていく。そのときはスマートフォンとは異なる呼び方を用意したほうがいいだろう。


論拠

最近数ヶ月でモバイル端末上における機械学習に使用されるチップに関して会話が公にされている。Appleの新しいiPhoneは「ニューラルエンジン」をもつし、Huaweiの旗艦モバイル「Mate 10」には「神経処理装置」が付く予定である。インテル、クアルコムやARMのような大手半導体設計開発企業もまた、AI最適化されたプロセッサを他の業界に供給するよう準備を進めている。

現代のAIは、コンピュータに小さな計算を非常に迅速に行うことを要求しているが、CPUには計算を実行するための「コア」しかない。そのため、業界はGPUを好んでいる。GPUはもともとビデオゲームのグラフィックスをレンダリングするために設計された。これが偶然にも小さな計算をすばやくたくさん作成するのに適しており、一握りのコアの代わりに、数千ものコアがある。

GraphcoreのCEO Nigel ToonはGPUは必ずしもニューラルネットの学習・推論に最適ではないと考えている。NVIDIAのGPUが有力ではあるものの、Google、Appleなどの大企業から、GraphcoreやCambrianなどのスタートアップまで多数のプレイヤーが、次世代のAIチップの可能性を探っているのだ。(参考記事)

スマートフォンにはすでに音声認識インテリジェンスの活用が開始されている。これらの能力の大半はクラウドからもたらされているが、将来的にはデバイス側にAIチップを埋め込んで、そこで学習や推論をしてもらい、端末側の機械知能の役割を拡大しようとしている。

「AIチップ」は有名な言葉だが、ときに不正確でもある。 HuaweiとAppleの場合、提供されているのは、自己完結型のひとつの「AIチップ」ではなく、AppleのA11 Bionicなど、より大きなSoC(システムオンチップ)の一部として提供される専用プロセッサである。 SoCには既にグラフィックスのレンダリングや画像の処理などのためのさまざまな特殊コンポーネントが含まれているため、AI用にいくつかのコアを追加しているのが実態だ。

Huawei Kirin 970 via Huawei

利点: クラウド依存の緩和

AI特化型プロセッサの採用は、理論的には性能が向上し、バッテリ寿命が向上することを意味する。しかし、ユーザーのプライバシーとセキュリティ、そして開発者にとっても利点がある。

まず、プライバシーとセキュリティ。現時点では、多くの機械学習サービスが実際の分析を実行するためにデータをクラウドに送信する必要がある。GoogleやAppleなどの企業は、モバイルで直接この種の計算を行う方法を考え出しているが、まだ広くは使われていない。専用ハードウェアを使用することで、より多くのデバイス上のAI利用が促進され、データの漏洩やハッキングの危険性が低くなると想定される。

さらに、数秒ごとにデータをクラウドに送信しない場合、ユーザーはオフラインでサービスにアクセスしてデータを保存できることを意味する。これは開発者にとっても利がある。結局のところ、分析がオンデバイスで行われた場合、アプリがサーバーへの支払いを減らせる、というわけだ。

難点1. 独自APIへの対応

HuaweiやAppleの場合、両社は独自のAPIを持っており、開発者は「ニューラルモバイルフォン」の力を活用するためそのAPIを利用する必要がある。開発者はそのAPIをアプリにインテグレートする前に、APIが使用しているAIフレームワーク(GoogleのTensorFlowやFacebookのCaffe2など)もサポートしていることを確認する必要がある。もしそうでなければ、彼らはそれを変換しなければならず、それには時間もかかる。

開発者がこのハードウェアを使って精巧な体験を開発するまでにはまだしばらく時間がかかるとみられる。その前にメーカーと第三者の間でパートナーシップが生まれることになるだろう。MicrosoftはHuaweiと協力して、翻訳アプリが同社NPUチップによりオフラインでうまく動くかを検証しようとするし、Facebookもモバイルフォン向けプロセッサのうち40%の市場シェアをもつQualcommと提携して、Qualcommの提供するSDKを利用することで拡張現実(AR)フィルタをより高速に読み込むことができるようにした。

難点2. Androidの断片化とAIフレームワークの整合性

小規模のアプリ開発者にとって、AIチップの導入が価値があるのか​​はわからない。iOSには特に大きな問題はない。開発者は同社のCore MLフレームワークを使用して一度だけアプリケーションを修正する必要があるだけだ。一方Androidにとっては頭痛がする話だ。異なるメーカーがそれぞれ独自のプロトコルを導入しているためだ。

Googleはこの問題に対処するためにエコシステムの力を利用している。同社のモバイルAIフレームワークであるTensorFlow Liteは、すでにいくつかのモバイル機器への標準化を終えており、独自のAndroid対応APIを導入している。Androidの開発者の立場からは、断片化に関するすべてのリスクを取り除くことはできないが、Android P(Andoroid 9.0)で最終的に解決するかもしれない。

しかし、既存の半導体に適合するフレームワークを導入することは始まりにすぎない。われわれが目にしているのは、AI開発の潮流のなかで計算機能力への需要が増えているということだ。この要求を満たすために、企業はAI最適化チップの全く新しいアーキテクチャ設計に取り組んでいる。例えば、MicrosoftはHololens 2用の独自の機械学習プロセッサを構築している。英国のチップメーカーGraphcoreは最近AIのトレーニングや推論に特化した「Intelligence Processing Units」が、GPUの10〜100倍のパフォーマンスをもつと喧伝している。

結論

半導体は「デナード・スケーリング」という法則に沿って高密度化と高速化が進んできたが、近年はその法則に陰りがみられ、特化型チップの開発の機運が生まれている。

Via Graphcore

コンピューティングの未来は機械知能(Machine Intelligence)に向かっている。特化型チップの需要は巨大であり、200億個のコネクティッドデバイスたちに機械知能が宿ったとき、私たちの経済、暮らし、社会はどう変化するのだろうか。とても楽しみだ。

コメントを残す