ポストモバイルの未来 メッシュコネクティビティと自律機械

Published: October 10, 2018

Introduction

モバイルフォンの全世界販売台数が伸びなくなり、アプリビジネスが過当競争、プラットフォームの課す税金、開発・マーケティングコストの高騰などを背景に黄金期を終えたことは明確だ。前回は新型iPhoneとAppleのビジネスについて検討したが、この10年間、世界を変えてきたスマートフォントレンドはいま終わろうとしている。

モバイルはすでにバックグラウンド(所与の条件)となり、次のフロンティアの探索はこれまで以上に過激に行われている。

ぼくは本記事をモバイル以降のビジネストレンドを探索する目的で執筆した。対象読者はテック業界、メディア広告業界、起業家、投資家、今後周辺産業に就職、転職する人を想定している。ビジネスパーソンの方にぜひ読んでいただきたい。途中からある程度テクニカルになるが、読み飛ばしながらエッセンスをとることは可能であり「ビジネスサイドがテクニカルなことを理解する必要はない」という時代はとうに終わっている。

この記事は大体スマートフォンで書いたけど、使いながらスマホには飽き飽きとしてしまった。僕もコンピュータの新しい価値を求めてやまない。さあ、ぼくたちと一緒に次の世界へ行こう。

ポストモバイル

ピーター・ティールはNewYork TimesのインタビューでiPhoneについてこう語っている。

私たちはスマートフォンがどういうものか、それで何ができるかを知っている。これはTim Cookの責任ではない。これ以上のイノベーションが望める領域ではないのだ。

We know what a smartphone looks like and does. It's not the fault of Tim Cook, but it's not an area where there will be any more innovation.

では、まずこの言葉が出てくるコンテクストをおさらいしよう。2007年にAppleはiPhoneがスマートフォンという形態を確立し、ブラックベリーや日本人ご用達のiモード電話のような、それまでの「インターネット接続する電話」を駆逐して以来、テック業界はこのモバイルというトレンドとともに動いてきた。

Comscore ”Global Digital Future in Focus 2018”によると、この通り。

  • デジタル時間消費の61.9%がスマートフォン、タブレットを含めると7割超が”モバイル”で占められる。
  • モバイルユーザーはデスクトップユーザーと比較して2倍以上の時間を消費するMobile users consume more than 2x minutes vs. desktop users
  • モバイルで消費される時間の80%以上はアプリで消費される
  • 富裕国ではデスクトップとモバイルを同時に利用するマルチプラットフォーム利用が多数派だが、モバイルオンリーのインターネットユーザーが世界的に増えている。モバイルオンリーの割合は新興国で大きい傾向がある。

そしてFacebookほどこのトレンドを説明するのに適切な企業はいないだろう。ハーバード大生向けのデスクトップwebサイトは、トレンドの変遷に合わせて経営資源をモバイルに集中させた。Facebookはいまやトラフィックの大半がモバイルアプリによってもたらされるようになっている。Q2決算によると、同社の広告収益90パーセント以上がモバイルからもたらされている。デイリーアクティブユーザー数は14億7100万人を数えているが、うち10億人はアジア太平洋、その他からもたらされている。

さて、モバイルがフランスの王政のように死んで、消え去るというわけではなく、その価値が所与の条件になったので、次の価値が模索されている、ということだ。モバイルには2つのフロンティアがある。一つがまだ接続していない人々であり、もう一つは高度化である。

まとめると、こういうことだ。安い電話がインターネットのいきわたっていない人々に接続性(Connectivity)を授ける。同時にモバイルをバックグラウンド(所与の条件)とした富裕国たちはコンピューティングの新しい領域への多様化とコンピュータネットワークの高度化、ヒューマンインタフェースの高度化に挑戦することになる。 ワクワクしてくる。

1 未接続者

まず「まだ接続していない世界の半分の人々」にインターネットを届ける。モバイルを持っていない人が世界中にばかみたいにたくさんいる。つまりインターネットユーザーではない人がまだいるのだ。モバイルは「未接続(Unconnected)な人たち」にとって絶好のゲートウェイドラッグだ。

グローバルインターネットユーザー数は2017年に36億人に達し、世界人口の49%に達している。逆を言えば、まだ50%がまっさらな市場として残っていると言える。ただしYear on Yearの成長率は年々鈍化しており、2016年が前年比12%の成長だったが、2017年は7%に過ぎない。この世界人口の50%のライン以降、成長速度の鈍化を想定することは容易である(Kleinerperkins "Internet Trends Report 2018")。

課題は幾つかある。スマートフォンの普及はコネクティビティ(インターネット接続性)と表裏一体である。ワイアレスネットワーク(無線ネットワーク)が普及していなければ、スマホはただの「電子機器を詰め込んだガラクタ」だ。またスマートフォン上で期待される、コネクティビティとクラウドコンピューティングへのアクセスが整うには、賢くて清潔でコンシステントな政府のリーダーシップが必要だが、すべての新興国でそうそう簡単に手に入るものではない。また100ドル程度のスマートフォンと数十ドルの通信費でさえ、Developing Countriy(開発国)の低所得者層には手が届かない投資かもしれない。

スマートフォンがコンピューティングとインターネットへの「ゲートウェイドラッグ」だとすれば、それは安いほうがいい。5万円くらいするヘッドセットでもなく、スクリーンがとてつもなく大きなiPhoneでもなく「安い電話」がいい。新興国では「安い電話」こそ「インターネットの未来」である。

順調な経済成長を遂げる大国インドは典型的なインディケータである。IDC Indiaによれば、スマートフォン企業は2018年Q2にインドに合計3350万台を出荷した。台数は前年同期比で20%成長した。平均販売価格(ASP) 150ドル程度の市場で、Xiaomi, Vivo, Oppoなどの中華勢が激しい競争を繰り広げている。

並行してコネクティビティの供給も増えている。telecomlead.com によると、2017年の段階で、ワイアレスネットワーク契約者は4億2467万人に達しており、インターネット契約者の95%に上る。インド最大財閥Relianceが通信事業者に参入して以来4Gの利用者も急激に拡大しており、2億3800万人に達した。4Gの速度は「世界平均の3分の1」ではあるが、インドが急ぎ足で4G、5Gの波に乗ろうとしていることは確かだ。アプリケーションレイヤーではモバイルプラットフォームを前提とした進歩的なサービスが欧米と中国、ソフトバンクの資金を元に挑戦をしている。今後は一人あたりGDPの増加や都市化などのマクロ経済諸表がモバイルインターネットの上の経済の発展に影響を与えるだろう。

インドのようなガバナンスが困難な国でもモバイルフォンとコネクティビティの供給が成功していることから、中東やアフリカでも同様の展開に期待をもつことができる。

80年代から振り返ると奇跡のように発展した中国を先例とすると、ASPはその国の経済状況に比例して上がっていくと考えるのが妥当だ。中国でも数年前はHuawei, Xiaomiなどの大手メーカーが廉価帯を中心に製造販売していたが、近年は中〜高価格帯にシフトしている。インドの課題は深センを持たないことだ。電化製品の大半は中国からの輸入であり、ある程度の機能要件を満たしたスマホは深セン生産品である。ハードウェアとソフトウェアの知見が国内に蓄積せず、ただの輸出先として発展してしまうことだ。そしてこの課題はもしかしたら長期的に中東、アフリカ諸国が引き継ぐことになるかもしれない。

1.1中国は「世界の工場」であり続ける

中国は世界のスマートフォンの生産拠点の地位を保ちつづけるだろう (他のエレクトロニクスでも同様だ)。製造を支配するだけでなく技術開発面でも欧米テック企業へのキャッチアップが進んでいる。

スマートフォンデではHuaweiの成長が驚異的で、80年代のジャパニーズエレクトロニクスの台頭を現代の中国に見ている感じだ(日本はその後大変なことになってしまったが)。「HUAWEI P20 Pro」は出色の傑作で、カメラに関してはiPhoneに匹敵する性能を示している。SoC(システムオンチップ)でも独自開発が進んでおり、特許数を積み上げつつある。Huaweiの今秋投入のSoC、Kirin 980はiPhoneのA12 Bionicと"史上初"の7nmプロセスを競い合い(ファブはともにTSMC)、トランジスタ数は69億とA12 Bionicと同じ数になる見込みである。同社はQualcommのSnapdragon 845との比較データを示し、Kirin 980はSnapdragon 845と比較して性能で37%、電力効率で32%優れていると主張している(参考: PC Watch)。

しかし、現行のKirin 970ではSnapdragon 845に負けており、Snapdragon855のシングルプロセッサのベンチマークはGeekbenchにリークされており、かなり素晴らしいスコアだった(Source: Geekbench)。Snapdragon855搭載のGalaxy S10は来年始め発売の予定で、そのときにKirin980, A12 Bionic, Snapdragon855が雌雄を決することになる。とあるGeekbenchの比較によるとCPU性能の比較ではA12が若干のリードを保っているようだが、シングルプロセッサベースの比較なので、余り参考にならないかもしれない。重要なのはHuaweiがApple, Intel, Qualcommと同じ領域で競争していることであり、ハイエンドSoCでそのパフォーマンスが伯仲しつつあり、ハイエンド機の開発製造が太平洋またがずして中国で完結する未来はすぐそこまで来ている。

また、チップの生産に関しては台湾のTSMCが極めて重要な存在になっている。前出の”史上初”の7nmプロセスを製造できるのは2018年の間は台湾のTSMCのみになる見通しだ。7nmプロセスが何かということを掘り下げていくと電子工学の沼にハマるので省略するが、これを実現するには高度な技術力と莫大な投資が必要になる。スマートフォンの組み立てで重要な役割を果たす鴻海精密工業も台湾企業であるように、台湾は深センと湾岸の工業地帯への主要な投資家である。深セン、台湾周辺のエレクトロニクスにおける凝集性は極めて価値が高く、近い内にこれに対して競争力を示せるプレイヤーが現れるかは疑問である。

加えて、深センの対岸にある資本供給先としての香港も重要だ。アリババ、テンセントの上場する香港証券取引所はアジアで最も重要な取引所であり、香港を通じた本土中国への外国直接投資は、現地企業の資金調達コストを下げている。台湾同様、香港にも本土中国とは政治的緊張があるが、三者の経済的なつながりの利益はとても大きいのだ

1.2中華プラットフォームの独自化

Huaweiは独自OSを開発していると言われている。現状、AndroidとAppleのプロプライエタリiOSはスマートフォン市場の99.9%を握っており、Duopoly(複占)

South China Sea Postによると、Huaweiは2012年に米当局がHuaweiとZTEに捜査を実施した際に独自OSを開発し始めたと言われる。Huawei創業者のRen Zhengfeiは「最悪の事態に備えるため独自のOSをもつべきだ」と当時発言していた。トランプ政権の米国は今夏、HuaweiとZTEに再び圧力をかけており(ZTEは一時輸入禁止、以降も当局の監視が続く状況だ)、Huaweiは秘密裏に続けているOS開発が再び重要性を増したと同紙は推測している。これに対し同社幹部はそうする必要はなく、Androidは「完全に許容可能」と判断したと説明している。

興味深い年次予測を出すCCS Insightは「米国の技術支配の断片化」として、中華独自OS採用の見通しは実際に、おそらく2022年までに可能性が高いと主張している。CCSは、中国が5Gで主導権を握り、全世界で自国のサービスのマインドシェアを獲得していると見ている。

「中国と米国の現在の政治的緊張と、ZTEとHuaweiのトラブルは、他の中国企業がスマートデバイス用の独自OSを開発する強いインセンティブになる。米国企業への依存度をすばやく下げることを願い、中国のテクノロジープレイヤーは4Gスマートフォンの代わりに5G対応デバイスを使用して自国開発プラットフォームへの移行を進めていく」(筆者抄訳)

Huaweiは現在デバイスとSoCの双方を設計しており、その間に挟まるOSの設計を検討するのは自然な発想だ。Androidはオープンソースであり、Googleの開発リソースが費やされているため、グーグルに任せておくのは理に適う。中国国外のAndroidユーザーはYou Tube, GoogleなどのGoogleのアプリケーションに依存しているため、HuaweiがMicrosoft OSのようなモバイルOSの自作とAndroidとの決別に踏み切るとは考えづらい。HuaweiはGoogleも無視できないスマートフォンの巨大製造業者だが、OSの独自路線にはまだ諸条件が整っていない。

CCSはまたテンセントとアリババが西欧と新興市場でより重要になったことを明らかにした。憂慮すべきことに、彼らは電子商取引と同じように「市民のスコアリング」を行うため、(多くの新興国の)権威主義的な政府に好まれる。ユビキタスサーベイランスは、州が個人の活動の広範囲を監視することを可能にし、政治的反対派の人々は与信、就労または旅行に申し込む際に苦しんだり、経済的苦境に直面することになる。

アナリストは「東南アジアとアフリカの一部で行われている競争は、プロバイダー自身と同様にインターネットサービスのパラダイムに関するものだ」と指摘。 これらの地域ではFacebookは政府のデジタルサービスのプロバイダーとして位置づけられると予測した。

1.3テックエコノミーの先端

さてゲートウェイドラッグがまだ接続していない世界に何をもたらすのだろうか。それはテックエコノミーである。中国はモバイルファーストなインターネット普及が新しい経済をもたらした典型的な例だ。先進国のコンシューマに先入観があったり、いまだにポータルサイトの画面にくらいついている人がいるが、中国には何もなかったところにモバイルベースのネット体験が入り、あくなきユーザーの利便性が追及された。コマースや金融で中国は欧米日をはるかに凌駕するビジネスを作り上げている。金融における富裕国と新興国の対比に関してはぼくは日本では早い段階でこういう記事(『デジタル決済革命はアジアで起きている:先進国凌ぐ中印』)を書いているので、ここに宣伝をしておこう。この記事から数年経ったいま規制を整えようとする日本はかなりマズい。

中国市場の規模が大きくなれば、デジタルビジネスモデルの大規模な社会実装が急速に進んでいく。中国のインターネットユーザーベースの規模は、プレイヤーによる実験の継続を促進し、デジタルプレイヤーが「規模の経済」を迅速に達成できるようにする。中国は2018年8月時点で中国は8億人のインターネットユーザーを抱えており、欧州連合と米国を合わせた規模に当たる。

中国の消費者に広く共有されたデジタルツールへの熱狂は成長をサポートし、イノベーションの急速な導入を促進し、中国のデジタルプレーヤーとそのビジネスモデルを競争力のあるものにしている。 マッキンゼーの『China’s digital economy: A leading global force』によると、中国のインターネットユーザーの5人に1人近くが、携帯電話のみに依存している(モバイルオンリー)のに対し、米国ではわずか5パーセントに過ぎない。中国のモバイルデジタルペイメントを利用しているインターネットユーザーの割合は約68%である。米国では約15%にとどまる。

中国の3大ネット大手は自分たちを超えて広がる豊かなエコシステムを構築している。BATとして知られるBaidu、Alibaba、Tencentは、インターネット世界で確かな地位を築くのと同時に低品質で非効率な「オフライン市場」をもディスラプトしている。 BAT企業は、消費者の生活のあらゆる側面に触れる多面的かつ多産業に渡るデジタル・エコシステムを開発してきた。2016年にBATは、中国におけるベンチャーキャピタルの総投資額の42%を提供し、米国のベンチャーキャピタル投資のわずか5%に留まったAmazon, Facebook, Google, Netflixよりも、はるかに重要な役割を果たした(出典:前出のマッキンゼー資料)。中国の大手3社だけでなく、Huawei, Xiaomi, DJIのハードウェアメーカーのほか、Toutiao, Didiなども独自の生態系を構築している。中国のデジタルプレーヤーはハードウェアメーカーとの密接なつながりの顕著な利点を享受する。珠江デルタの産業拠点は、ハードウェア製造能力の強さのため、ネット接続デバイスの主要生産者であり続ける可能性が高い。

中国政府は規制を適用する前に、デジタルプレイヤーに実験の場を与える行政運営をし、現在はテック企業の積極的な支持者になっている。最初のうちは右往左往しながらデジタル部門を規制し、イノベーターには十分な実験スペースを与えた。市場が成熟するにつれて、政府と民間部門は徐々に規制と施行を通じてより健全なデジタル開発を形作ることについてより積極的になってきた。 今日、政府は、投資家、開発者、消費者としてのデジタル化を支援するための世界クラスのインフラを構築する上で積極的な役割を果たしている。

1.4未接続者のまとめ

モバイルというトレンドは新興国から開発国(Developing Countries, 発展途上国という訳語は不適切だと思う)にあり、欧米日の富裕国にはない。これまでConnectivity(接続性)がなかった場にそれが普及し始めると、人々はネットワーク提供するさまざまな利益を享受し始める。そしてそこでは見たこともないような新しいビジネスが生まれるし、現実世界のあり方を変えていくのだ。混沌とした物事のなかから新しいものが、それこそ富裕国では想定できなかったほど独創的かつ、多大な便益をもたらす素晴らしいプロダクト群が、人々の生活を豊かにする機会がある。中国はそれを実証し、次はインド、アフリカが続く版である。


2. 富裕国での高度化

さて、もうひとつのフロンティアの富裕国における高度化について見てみよう。電話が切り開いたコンピューティングの移動性(モビリティ)が、これからくる時代には移動性ですらなくなり、空気のようにどこにでもあるものになっていく。モバイル(Mobile)という言葉でスマートフォンを指すことができた時代が今までだとすると、あらゆるデバイスがインターネットに接続するときには、あなたは地球上に存在する限り常にメッシュに包まれた状態になる。その隙間のない網目の中で用いられるコンピューティングには機械学習という未来がある。そしてそのコンピュータネットワークに接続するインターフェイスは拡張現実(AR)という形を取ることになる。

富裕国での高度化はコンピューティングの進化に依存する。各領域においてさまざまな進化が期待されており、各要素がいつ、どれほどの効果を及ぼすのかは極めて流動的であり予測が困難だ。テクニカルな説明になるが、それ以外の方法は見つからないので、読み飛ばしながら、お付き合いいただければ幸いである。モバイル未来を予見するには、コンピューティングの未来について目を見張らないといけない。

2.1 ポストムーア

まずコンピュータをめぐる状態を整理する。チップの微細化のルールはすでに「ムーアの法則の終わり」と考えていい状況であり、微細化が処理速度や消費電力、コストを低下させる状況はすでに終わっており、近年はコストを容認しながらも微細化やマルチコア化を進めたり、チップを三次元構造にしていくことで物理的な集積度の壁を越えようとしたりしている。

Intel共同創業者ゴードン・ムーアは1965年にチップ当たりのトランジスタ数が1~2年で2倍になると予測した(その後期間を「18ヶ月から24ヶ月」に訂正した)。2014年に導入されたDRAMチップには80億個のトランジスタがあったが、160億個のトランジスタをもつDRAMチップは2019年まで量産されないことが確定している。ムーアの法則では4倍のDRAMチップが予測されているにもかからず。2010年のIntel Xeon E5マイクロプロセッサは23億個のトランジスタを有し、2016年のXeon E5は72億個のトランジスタを有しているが、ムーアの法則ではトランジスタは少なくとも8倍になっていないとおかしかった。半導体製造技術は過去に比べて改善が進んでいるが、その速度は遅くなっている。

あまり知られていないが重要なのはデナード則(デナードスケーリング)だ。1974年のRobert Dennardの洞察は、単純化すると、微細化が進めば処理速度は向上し、同じ面積の中に複雑な回路を集積することができ、消費電力が低下することを意味した。微細化が性能向上を約束する魔法のような法則である。デナード則は最初に観測されてから30年たった2000年代なかばに終了した。微細化がもたらすメリットは低下し、半導体企業はシングルプロセッサでの性能向上からマルチコアで性能を増やすことでムーアの法則を守ることを考えたが、マルチコア化による性能改善にも「アムダールの法則」という制約が課せられている。

業界はシステムオンチップのような形で経済的便益を表現し、ソフトウェア面での対応が多数生まれるマルチコア化や、投機的実行など制御方法の工夫を施したりしてきた。なんとか凌いでいるが、機械学習の「探索と活用」において、あからさまに活用がサチってきて、他のアーキテクチャの探索に強く重み付けをした方がいい状況だ。

デイビッド・パターソンによると、現在は「プロセッサの性能改善は”20年で2倍”速くなる」ところまで遅くなっている。

Death-of-Dennard-Scaling-and-Moores-Law Source: John Hennessy and David Patterson, Computer Architecture: A Quantitative Approach, 6/e. 2018

微細化は経済と物理の双方の制約を生み出している。7nmプロセスを製造できるファウンドリは1,2社に限られており、ファブラインの構築に10億ドルを超える設備投資が必要になる。微細化技術の開発はとても困難であり、プロセスをコンパクトにするたびに加工方法や素材の転換が求められる。次世代の投入までの時間は引き伸ばされてきている。同時にチップ開発は投資を回収する商業的成功を必ずしも保証されているわけではないので、ファウンドリ(半導体製造業者)が負担するリスクが高まっている。

微細化がコスト効率を悪化させているという経済的な制約と、チップの微細化に限度があるという物理的な制約が生まれている。ジョン・ヘネシーやデイビッド・パターソンは「ムーアの法則の終わり」を宣言し、特定の目的に特化したアーキテクチャとプログラミング言語の導入を提案している。近年は現代をコンピュータアーキテクチャの「カンブリア紀」とするレトリックも多数見られる。地球が界面に覆われ、生物が爆発的に多様化した時期であり、ノイマン型の汎用なコンピュータの設計ではなく、その目的に応じたアーキテクチャが設計されるようになる時期であることを指す。

これは産業面にも衝撃を与えている。今年Apple発売した新型iPhoneやMacBookがムーアの法則が適用される時代に表現できた劇的な性能向上を表現できなくなっている(MacbookはCPUのコア数を増やしたのが災いし発熱する。冷蔵庫で冷やしたあとに使用するとパフォーマンスがいいらしい)。コンピューティングのさまざまな進化がハードウェアの進化に裏打ちされて成立してきたが、今後はそれが期待できなくなるかもしれない。ただし、あなたの手元にあるコンピュータ1台で問題を解決する必要はなく、また、コンピュータにも異なる進化のオプションが多数存在する。まずは後者を掘り下げてみよう。ムーアの法則の終焉は転換点になる。多くの課題は伴うが、さまざまな方向に向かって進化が生じ、世の中に変革がもたらされる機会にもなるのだ。

ジョン・ヘネシーとデイビッド・パターソンは『Computer Architecture, Sixth Edition: A Quantitative Approach』で 第7章で『Domain Specific Architectures”ドメイン固有アーキテクチャ”』の章が加えられている。 7章ではDomain Specific Architectures (DSAs)の代表的な例としてGoogleのTPU(Tensor processing unit)とMicrosoftのFPGAが挙げられている。この機械学習に特化したチップについて知る前に、「これまでの経緯」を知るため、いまや有名になったGPU(Graphic processing unit)について知ろう。

GPU

画像処理は、計算は単純だが大量の演算処理性能が求められる。CPUは汎用的な処理ができるのが特長だが、画像処理に特化したGPUは、並列処理技術などにより処理性能向上がしやすい。GPUのCPUとの違いは並列処理にある。逐次処理用に最適化された数個のコアから成るCPUに対して、GPUは複数のタスクに同時Cに対応できるよう設計された何千ものより小さく、より効率的なコアで構成されている。GPUはCPUから描画情報を受け取ると、頂点処理、テクスチャの参照やピクセル単位での照明計算を含むピクセル処理などを実行し、画面に出力するという手順を即座に進める。頂点処理やピクセル処理は高い並列性という特性をもつ。

「GPU」という用語は1999年にNVIDIAによって広く普及した。GeForce 256を「世界初のGPU」と銘打って売り出した。実際には76年のRCA Studio II、77年のAtari 2600に「ビデオチップ」が搭載されておりこれが最初の画像処理特化チップと考えられる。GPUはゲーミングや映画などで3D映像の使用が拡大し、市場を広げてきた。GPUの性能向上はとどまるところを知らない勢いで向上していたものの、その性能を持て余してしまい、一部の3Dゲームなどのみ恩恵を受けていなかった。

画像処理から汎用利用への拡張は2007年に起きている。2007年にNVIDIA社によってGPGPU開発環境CUDAが一般公開されると、多くのユーザーが高い演算性能を安価に得られる新たな並列計算ハードウェアとして CUDAに興味を示し、GPGPUの研究が広く注目を集めることとなった。CUDAは現在NVIDIA社製GPUに対して最も低いレイヤーでアクセスすることが可能なプログラミング環境であり、適切に利用することでGPUの持つ性能を引き出すことができる。AMDも2008年にATI Stream SDK(AMD Stream SDK) とBrook+からなる開発環境の一般公開を開始した。

GPUの性能はCPUを超える勢いで向上し続けている。特に、グラフィックス性能の向上が 行われ続けているのみならず、GPGPUを意識した性能向上も行われている。 HPC分野からの要求に応えて、グラフィックス目的では不要なスペックも盛り込んでいる。NVIDIAはこの傾向が強くこの後のGPGPU市場でAMDを圧倒してしまった。

2.2 機械学習ハイプとGPUとの婚姻

GPGPUには驚くべき副産物があった。それは機械学習である。GPUをCNN(畳み込みニューラルネットワーク)の並列計算に利用する。2000年代後半にジェフ・ヒントン(Geoff Hinton)氏のバック・プロパゲーションと確率的勾配降下法とヤン・ルカン氏の畳み込みニューラルネットワークなどの、ゲームチェンジングな発見が現れ、二度の冬にさらされた

スタンフォード大学のアンドリュー・ウン氏とNVIDIAはGPUを機械学習に応用する研究をCUDAを投入した2007年頃から開始した。その後ウン氏はモデルが猫を認識できるようになった「Googleの猫」で、CNNのトレーニングの高速化を実証した。加えてImageNetの2012年大会で、トロント大学のアレックス・クリジェフスキー氏が、大規模なGPUによるトレーニングしたモデルで、コンピュータビジョンの専門家が作り込んだソフトウェアに圧勝した。

この後、機械学習への熱狂が高まり、GPUへの需要は高まるばかりである。その熱狂を物語るエピソードがある。2016年12月に開催された機械学習関連のトップカンファレンス「Neural Information Processing Systems(NIPS)」に向けた論文の締め切りは5月19日だったが、これに合わせて世界中の研究チームがクラウドを利用したため、Google CloudとMicrosoft AzureのGPUが一時的に枯渇していた(The Registar)。

NVIDIAのGPGPU、特に機械学習領域での成功は同社の株価を急激に引き上げた。「トヨタが頼った謎のAI半導体メーカー」と書かれたことがあったが、NVIDIAの時価総額はトヨタに肉薄しつつある。NVIDIAは機械学習用のチップを独占する期間が続き、これがテックジャイアントの恐怖を引き出すことになる。

2.3 Google TPU

ムーアの法則の終わりは、ドメイン特化型アーキテクチャ(Domain Specific Architectures = DSAs)を「コンピューティング」の未来とした。例を挙げると、2015年に初めて導入されたGoogleのTPU(Tensor Processing Unit)であり、現在10億人以上の人々にサービスを提供している。それは「現代のCPUおよびGPUよりも30〜80倍優れたエネルギー効率で、ディープニューラルネットワーク(DNN)を15〜30倍高速で実行する」と説明されている。

Googleは2006年にはじめて、データセンターにGPU、FPGA(フィールドプログラマブルゲートアレイ)、ASIC(特定用途向け集積回路)を導入することを検討した。結論として、特別なハードウェア上で実行できるアプリケーションは、Googleの大規模データセンターの超過容量を使用して無料でほとんど実行でき、同時に無料の性能改善は困難だった。しかし、2013年にGoogleユーザーが音声認識のDNNを使用して1日3分声で検索した場合、データセンターの計算需要が倍増することがわかった。これは従来のCPUを使用すると非常に高価になる。Googleはこうして推論のためのカスタムチップを素早く開発し、トレーニングのために既製のGPUを購入するという優先度の高いプロジェクトを開始した。目標はコストパフォーマンスを10倍向上させることでした。この任務を踏まえて、TPUはわずか15ヶ月でGoogleのデータセンターで設計、検証、構築、展開された(Communications od the ACM "A Domain-Specific Architecture for Deep Neural Networks”)。

2.4 TPUの技術的な説明

大規模なマトリックス乗算 (行列積) の用途に特化した、高いスループットを提供するマトリックス乗算ユニットと大型のソフトウェア制御のオンチップメモリ。GPUがベクトル演算に特化しているがマトリックス乗算に特化することで、ニューラルネットワーク(NN)の推論, 学習に最適化されている。

マトリックス・プロセッサー(MXU)アーキテクチャーは 65,536 個の 8 ビット整数乗算器を使用してシストリック・アレイ・アーキテクチャーを介して次から次へとデータをプッシュする。シングル・スレッドの単一の高水準命令を使用して複数の低レベル処理をトリガーできる「複合命令セット・コンピューティング(CISC)アーキテクチャー」を採用する。

NNの推論、学習に完全に特化されており、機械学習への活用に置いてCPU、GPUよりも優れていると説明されている。以下はGoogle Cloud Platform Japan Blogから引用する。

  • ニューラル ネットワークの推論を使っている本番 AI ワークロードでは、TPU は現在の GPU や CPU よりも 15 倍から 30 倍高速。
  • TPU のエネルギー効率は従来のチップよりもはるかに高く、30 倍から 80 倍の改善を示している。
  • これらのアプリケーションを支えるニューラル ネットワークのコード量は驚くほど少なく、100 行から 1,500 行に過ぎません。このコードは、Google が開発した人気の高いオープンソースの機械学習フレームワークである TensorFlow をベースとしている。

GoogleはデータセンターにおけるGPUの消費電力がネックだったと指摘している。データセンターのハードウェア投資の基準は、総所有コスト(TCO: Total Cost of Ownership)におけるはずだ。機械などを保有する際にその購入費用だけでなく、使い続ける費用なども含んだ総コストを指す。電力効率はクラウドの課題となっており、巨大なデータセンターにおいてプロセッサの電力効率がきわめて重要だとGoogleに移ったJohn Henesseyが指摘している。 論文では、TCOはビジネス上の理由で開示できないが、TCOと相関する電力コストを開示できるとしている。

tpu-3gpcs.max-1200x1200

TPU v1(2015年)は推論のみの対応だったが、TPU v2(2017年)は推論とトレーニングにも対応した。Googleは今年の5月に発表したTPU v3で構成したポッドは前世代のポッドより8倍早いと主張している。TPU v3は初めて水冷式を採用している。水冷式 CPU クーラーは冷却液で CPU を冷やすので熱容量が圧倒的に大きく、おおむね空冷式より冷却性能が高い。

accelerated-machines-2x

Googleはハードウェアだけでなくソフトウェアでも機械学習特化を進めている。TensorFlow である。TensorFlow はGoogle Brain プロジェクトによって開発されたクローズドソースの本番環境向け深層学習システム「Google DistBelief」にそのルーツを持つ。Google は分散処理用に TensorFlow をゼロから設計し、Google の実動データ・センター内にある TPU で最適に稼働されるようにした。この設計により、TensorFlow は深層学習アプリケーションに有効に機能するようになっている。このシステムは汎用性が高く、他の領域にも幅広く適用することができる。

Cloud TPUとTensorFlow のハードウェアとソフトウェアの垂直統合型を目指しておらず、TensorFlowはオープンソースであり、通常のCPUやNVIDIAのGPUもサポートしている。

2.5 MS Catapult FPGA

マイクロソフトも同様の機械学習チップの分野に同様の強い投資をしている。同社が力を入れるのはFPGAである。FPGAはチップ内部のロジックをソフトウェアであとからロジックを書き換えることで特定の処理をよりも非常に高速に処理できる汎用LSI。Microsoftは機械学習のための演算リソースをこのFPGAで提供しようとしている。FPGAはさまざまなタイプの機械学習モデル用に再構成できる。この「柔軟性」により、使用されている最適な数値精度とメモリモデルに基づいて機械学習アクセラレーションが可能になる。

Project CatapultはMicrosoftのクラウドに大規模なFPGAを適用するプロジェクト。2010年にMicrosoft Research NExTのDoug BurgerとDerek Chiouが”ポストCPU”のテクノロジーとしてGPU, FPGA, ASICを模索するところから始まった。MicrosoftはFPGAがカスタムASICを開発するコスト、複雑さ、およびリスクなしに、効率と性能を実現できるという判断をした。

Doug Burgerによると、2015年後半には、Microsoftが購入したほぼすべての新しいサーバーにCatapult FPGAボードを載せていた。それはBing、Azureなどに活用された。その後は規模を拡大し、世界中に展開されるようになり、Microsoftは地球上で最も多くのFPGAを使用しているという。

このFPGAはIntelが製造している。Project Catapultのなかで機械学習に特化した部分を"Project Brainwave"と呼ぶが、「”リアルタイム”の推論の要求に対して低いレイテンシを達成することを可能にする」とうたっている。Project Brainwaveは推論のための演算能力を提供し、学習の面倒はみないのだ。BrainwaveのFPGAはビデオ、センサー、検索クエリなどのライブデータストリームを処理し、ユーザーに迅速にデータを配信するように設計されている。

TPUは2世代以降学習にも足を踏み入れているが、FPGAは推論のみを扱っている。Microsoftはエッジでの処理を強調し、製造業やカメラディテクションなどのレイテンシがにシビアな業種へのアピールを図っている。同時にIoTへの対応も強調されている。「世界中にある15億台のWindows端末もひとつのエッジデバイスと考えていて、Windowsにも機械学習を動かすためのランタイム環境を今年の秋から正式に入れていく」という。

Microsoftはまた”リアルタイムAI”の演算を高速化するために設計されたハードウェアアーキテクチャであるProject Brainwaveの”プレビュー”をした。 Project BrainwaveはFPGAに実装され、Azure Machine Learningとインテグレートされている。顧客はBrainwaveをエッジに配置できる。システムにネットワークやインターネットが接続されていなくても、自社のビジネスや設備でそのコンピューティングスピードを利用することができる。エッジでのリアルタイムが強調されている。柔軟性はFPGAの強みであり、Brainwaveは”現場”で利用するモデルに合わせて、後からロジックを組み直すことができる。

Microsoft-FPGA-21-1920x1280Fig 00 An example of the hardware used for Project Brainwave. Photo by Scott Eklund/Red Box Pictures. Via Microsoft.

加えて、今年4月にMicrosoftは「Azure Sphere」を発表している。”エッジ”デバイス向けのソフトウェアとハードウェアスタックであり”Intelliginence Edge”を達成するものだという。Azure Sphereは組み込み用のマイクロコントローラーユニット(MCU)、IoTセキュリティ向けに構築されたカスタムOS、デバイスを保護するクラウドセキュリティサービスから構成される。

CVP Microsoft Azure の Julia Whiteは4月の公式ブログで「MicrosoftはIoTに50億ドルを投資する」と書いている。Whiteが引用するA.T. Kearneyの予測によると、IoT は2020年までに1兆9000億ドル相当の生産性改善と1770億ドル相当のコストカットをもたらしうると指摘している。

Googleもこれに対しEdge TPUを外販すると発表している。Edge TPUはIoTデバイス、ゲートウェイ、エッジコンピューティングデバイスなどを対象としている。SOM(System on Module)という形状のモジュールで顧客に提供される。OMには、クアッドコアのArm CPUとGPUを内蔵したSoC、Edge TPU、Wi-Fi、Microchipのセキュアエレメントが搭載されている。

Edge TPU chip.max-1000x1000 The Edge TPU chip, shown with a standard U.S. penny for reference

Edge TPUはエッジでTensorFlow Liteの機械学習モデルを動かすために設計された専用ASICチップ。「ワットあたりのパフォーマンス」と「1ドルあたりのパフォーマンス」を最適化するために集中しているという。Edge TPUはCloud TPUを補完するように設計されている。クラウドでMLトレーニングを加速し、エッジで驚異的な機械学習の推論を実現する。センサーはデータコレクター以上のものになり、ローカルでリアルタイムでインテリジェントな意思決定を行う。

同時に発表したCloud IoT Edgeは、Google Cloudのデータ処理と機械学習機能をゲートウェイ、カメラ、およびエンドデバイスにまで拡張し、IoTアプリケーションをよりスマートに、より安全に、より信頼性の高いものにするソフトウェアだという。

両者とも用語やその言葉の対象範囲が異なるが、概ねエッジまでクラウドのコンピューティング能力を拡張し、重要性の増す機械学習機能をハードとソフトの両面で提供しようとしている。

Googleは機械学習のリソースを”民主化”するアプローチをとっている。TPUではデータセンターのコストセンターである電力を節約できることを強調しているし、ASICは一度製造を開始すればコストは低減する。コストパフォーマンスで差をつけて、競争相手を押し出してしまおうとしているように見える。

MicrosoftはFPGAの柔軟性を活かすことで、顧客ごとに密に対応することで、包括的なサービスとして価値を高めようとしているかもしれない。セキュリティなどを強調し従来からの顧客に最適な形で提供すれば、それだけでも十分なパイがある。

なぜ機械学習用のチップが開発され、テックジャイアントがクラウドからエッジに資源を拡張してくるのか。そこにはIoT、エッジコンピューティングというバズワードが存在するからだ。

2.6 Cloud and Edge

近年のインターネットはテックジャイアントが運営するクラウドに集中してきた。コンピューティングは集中と分散の振り子であり続けた。メインフレームコンピュータの集中、1980年〜2000年まではクライアントサーバーの分散を経て、この10年以上はモバイル-クラウドの集中の季節にある。例えば、モバイルアプリケーションの大半はクラウドの上に構築されており、遠隔地のデータセンターからあなたのデバイスにデータが渡されている。クラウドコンピューティングには様々な類型があるが、規模で抜きん出ている提供者はAmazon, Microsoft, Googleに絞られる。

しかしIoT時代には多量のセンサが接続される。多量のデータが生まれるが、それをクラウドに運ぶことはネットワークの能力を超過する負荷がかかることになる。生じるデータのほとんどが非構造化データであり価値密度が低い。データをデータ源そのものか、近接した場所で処理する、クラウドへの集中化からエッジへの展開が企図されている。

IntelのFPGAでDNNを走らせるオブジェクト検出に関するブログ”High-throughput Object Detection on Edge Platforms with FPGA”では、エッジプラットフォームが必要な理由としていかが挙げられている。IntelはMicrosoftへのFPGAのサプライヤーである。

クラウドへの接続が低速または信頼できない:特定の状況では、リアルタイムの解析とセンサデータへの対応する応答が必要だ。低速または信頼性の低いネットワーク接続性が存在することは、そのようなシステムの適切な機能を著しく妨げることになる。

収集される膨大なデータ:厳密なリアルタイムレスポンスが不要な状況であっても、大量のデータをクラウドに送信することは実用的でないか、高価すぎる可能性がある。例えば、監視カメラのシステムは、膨大な量の生画像フレームを収集することができる。このデータのすべてをクラウドに送ることが期待されるのは、これらのフレームのうちのほんの少数に関心のあるオブジェクトがあれば、実用的でないか無駄になる可能性がある。

顧客データのプライバシーとセキュリティ:収集された特定のデータは秘匿が求められており、その機密性は顧客のビジネスにとって不可欠。このような場合、インターネットを介してそのようなデータの送信を回避できると、攻撃面が大幅に減少し、より良いセキュリティが提供される。

機械学習はエッジの力を解放した。組み込みコンピュータがその場でデータ処理をする。クラウドは機械学習の学習の場、ストレージとして役割が強くなる。Teslaはとてもいい例であり、多量のコンピュータを積んでおり、デバイス自体でセンシングと推論、アクションを全部行っている。

センサーの増加は指数関数的でありユビキタスになっている。同時にセンサーの質自体も向上している。IDCは、接続されたデバイスから生成されるデータの総量が2025年までに40兆ギガバイトを超えると予測している。センサーデータはクラウドの能力を完全に越えることになる。

繰り返すが、デバイス自体でセンシングと推論、アクションを全部おこなうこと。あとは、エコンピュータ・ネットワークの観点から見ると、エッジコンピューティングは、重要なデータをローカルで処理または保存し、受け取ったすべてのデータを中央データセンターまたはクラウドストレージリポジトリに100平方フィート未満のフットプリントでプッシュする「データセンターのメッシュネットワーク」と表現することもできる。

エッジコンピューティングのユースケースのひとつには通信会社による次世代5Gセルラーネットワークの構築だ。通信プロバイダーがワイヤレスネットワークに5Gを組み込むと基地局とは別に5G用のタワーを増やし、隣接するマイクロデータセンターを追加すると予測される。顧客はこれらのマイクロデータセンター内のスペースを所有または借りてエッジ・コンピューティング(フォグコンピューティングとも呼ぶ)を行い、通信事業者の広範なネットワークへのゲートウェイに直接アクセスすることができ、パブリッククラウドに接続することもできる。Microsoft, Googleのようなパブリッククラウド業者も、激増するIoTデバイスに対応するためマイクロデータセンターを増やす可能性がある。

IoTにはネットワーク内のアタック対象の急増という課題があるが、同時に物理的なセキュリティも課題になる。クラウドでは物理的なセキュリティを一箇所に集中して管理できたが、分散すれば分散するほど保守するコストが上がると考えられる。 ッジでデータがレイテンシなく共有され、自律的な行動と協調行動が必要になる。

経済性はすでに担保されつつある。エッジの機械学習チップでエッジコンピューティングのコストは急速に安くなっていく。TPUの戦略はパフォーマンスと動揺に経済性で、一気に安くしてしまい、”水”や”電気”のレベルにしようとしている。

2.7 5G

ネットワークにも大きな変化が起きようとしている。5Gだ。2020年頃に日韓中米などで投入される5Gユースケースは3つの主要なタイプの接続サービスに大きく分類できる。

  • 拡張モバイルブロードバンド:5Gはスマートフォンをより良くするだけでなく、より速く均一なデータレート、低い待ち時間、1ビット当たりのコストで、VRやARなどの新しい没入型エクスペリエンスを導く
  • 超高信頼コミュニケーション:5Gは、クリティカルなインフラストラクチャ、車両、医療処置のリモートコントロールなど、超信頼性/可用性、低レイテンシのリンクを持つ業界を変革できる新しいサービスを可能にする
  • 大規模なインターネット:5Gは、データレート、パワー、モビリティをスケールダウンして、非常にリーン/低コストのソリューションを提供することにより、膨大な数のエンベデッド・センサーを事実上すべてにシームレスに接続する。

5Gは前方互換性の設計がされており、将来期待されるサービスを柔軟にサポートする能力が担保されている。

5Gは既存のワイアレスネットワークを著しくコモデティ化し、常に超高速大容量でコンピュータ・ネットワークに接続された「メッシュ」のなかに世界を包み込む。

5Gは人々を相互接続するだけでなく、マシン、オブジェクト、およびデバイスを相互接続して制御するためにモバイルネットワークを高度化させる。小売から教育、交通機関、エンターテイメント、そしてその間のあらゆるものに至るまで、幅広い業種を再定義する可能性があり、自動車と電気のような社会を大きく変える可能性がある技術である。

2.8 分散協調

5Gはエッジコンピューティングの進化を増幅すると予測される。あなたはワイアレスネットワークが大容量で速くなるのなら、センサーデータにもっていけばいいのではないか、と考えるかもしれない。しかし、繰り返しになるが、すべてクラウドに持っていけば、それに耐えうるインフラはないのである。同時に溢れ出るデータの大半は極めて価値が低い。

機械学習の話をしてきたと思うが、端末の地点にあるモデルが自律的にデータを処理し、アクションを起こすことを機械学習は可能にしている。5Gの発達により自律機械(Autonomous Machines)たちを結びつけるネットがより強固になる。自律機械たちが自律的な行動をとりながら、学習内容や情報を共有しながら協調するようになる。エッジは価値密度を固めたデータをクラウドに渡し、クラウド側で得られた学習内容が、再度エッジに反映されることで、エッジの進化が続いていく。自律的に意思決定するエッジに対し、クラウドが情報を与えることで、エッジの意思決定の質が向上し、機械や人間がその結果を享受できる。

完全にクラウドのなかに集中しているのでもなく、それぞれがばらばらに自律的に動いているのでもなく、集中と分散を細やかに組み合わせたより複雑化された形のコンピューティングが指向されている。下の図は必ずしも適切ではないが、わかりやすくなればいいと貼ってみた。

distributed-grid-cloud-networks

2.9 自律自動車と5G

自律機械の端的な例であり、大規模な投資がされている分野が、自動走行車だ。自動走行車は大量のセンサーとその情報を処理するためのコンピューティングパワー、そして即時の意思決定がされている。

Screen Shot 2018-10-16 at 16.43.41

この自動運転車にとって5Gの重要なアプリケーションが存在する。 それはVehicle-to-Vehicle (V2V) の通信をセルラーネットワークで行うことだ。自動運転車同士が通信をとることで、追突を避けたり、効率的な走行で化石燃料の消費を抑制し輸送機関全体のパフォーマンスを向上させたりし、円滑な交通運営が可能にする。

V2X(Vehicle-to-Everything)は、車車間、路車間、人車間で通信を行なう規格で、ADASや将来的なレベル3以上の自動運転を実現するために欠かせない技術とされている。従来はV2Xの研究開発はDSRC(Dedicated Short Range Communications)というWiFiの通信形態に向けられてきた。しかし、特に欧米を中心に、DSRCから「C-V2X」と呼ばれるセルラーネットワークを利用したV2Xへ移行する動きが急速に進んでいる。5Gは現在のセルラーネットワークよりもはるかに帯域幅の広い周波数帯を使用するため、理論的には、今日よりもはるかに高速に大量のデータを交換できる。C-V2X搭載車が意図した行動を他のC-V2X車に迅速に反応させることで自律走行を支援することができる。

センサー情報の処理要件は極めてシビアであり少しでもレイテンシがあると事故が起きてしまうかもしれない。したがってクラウドなどの遠隔に分析・意思決定の場を置くことは考えられない。リアルタイムの情報の遠隔のネットワークとの通信は渋滞情報などの提供に絞られる。これらの機械同士がつながることをM2M(Machine to Machine)と表現されている。

2.91 汎用ロボット 

自律機械の応用例は無数に現れている。ドローンは5Gの多接続と低遅延によってコントロール可能台数や範囲が広がり、宅配などの物流への活用の期待のほか、カメラを搭載し、ドローンの段階でデータ処理・分析を行い有益な情報に限り中央に送るというような役割を担うこともできる。他にも産業用ロボットは市場が大きく需要がある領域であり、ハウスキーピングや料理などを行うロボットなども熱心に研究されている。

自律機械に人が要望を伝えるとき、インターフェイスはどうなるか。コマツがNVIDIAと組んで建機の自律化に取り組んでいるが、建機の場合は、たぶん何らかのスクリーンから要望を伝えざるを得ない気がする。しかし、ハウスキーピングロボットには「キッチンの掃除をしておいて」と”音声”で伝えたりすることになるのではないか。現在のヒューマンインターフェースは過度にスクリーンに依存しているが、ロボットが増えてけば、多様化の傾向が考えられる。実際、物理的なロボットではなく、Google Assistantのようなバーチャルなエージェントに対して音声インターフェイスを使うことがトライされている。

機械学習はロボットの巨大な可能性を切り開いており、その最終的な目標は、人が必要とするあらゆる要件を実行できるGeneral Perpose Robot(汎用ロボット)だ。●●

モデルをトレーニングするためには豊富な高質のデータが必要になるが、この豊富で高質なデータが機械学習のボトルネックになっている。訓練用のデータが少なくとも高質なモデルをトレーニングできる手法をつくることに注目が浴びせられている。有名な例だと、Deep MindのAlphaZero / Alpha Go ZeroはそれまでのAlpha Goとは異なり、訓練データなしで囲碁などのルールのみを設定したあとは、TPUの演算能力を活用した強化学習で、人間よりはるか上のレーティングを達成したことがある。

2.92 VR・AR・MR

5GはVR(仮想現実)、AR(拡張現実)、MR(現実と仮想現実の融合)の社会実装を促進することが期待されている。使途はゲーミング、エンタテイメントだけでなく科学研究、医療、商品開発、ファッションなどの分野で活用が考えられる。

VR・AR・MRのなかで最も早そうで一般層に訴えるのはARと考えられるが、ARでも現状は大きな筐体のハードウェアとくっついていないと、描画が追いつかない。派手なプロモーション映像や『マトリックス』の有名な「バレットタイム」の考案・製作者を仲間に入れているMagicLeapの最初のハードウェアも”まだまだ”だと言われている。

Screen Shot 2018-08-31 at 11.11.21

5GがARのデータを送付するのに耐えられるほどの大容量だとしても、それが大ぶりなハードウェアと接続されていないといけないので、ワイヤレスネットワークを使う楽しみがなくなる。幸いなことにGPUの性能改善はいまのところ停滞していないので、いずれは人々が街なかでARをいじり、さまざまなことを片付け、エンタテイメントを楽しむ用になるはずだ。『マイノリティ・リポート』のトム・クルーズのような人がたくさんいるようになる。

いまはヒューマンインターフェイスがスクリーンに偏りすぎているので、より直感的な方向に多様化していくはずだ。モバイルフォンはそのうちの一つとなる。メッシュのようにネットワークに接続し、ロボットなどを駆使するようになったときには、いまほど人の可処分時間を占めることは難しくなるだろう。

モバイルフォンには「カメラ」としての役割があるので、それがモバイルフォンをこの世界にとどまらせ続ける可能性がある。特に若年層にとって、モバイルフォンは動画と画像の生成と視聴のためのデバイスとしての価値が大きくなっている。動画の視聴はARデバイスに移行できるが撮影はフォンによってなされる。Go Proのようにカメラが独立した形でのユースケースになるかは未来のマーケットに聴いてみないとわからない。それにしても「電話がカメラとして生き残る」のは変な感じだ。

結論

ぼくたちはコンピュータとネットワークの大きな変化を前にしている。モバイルフォンは強烈な一点突破の拡張だったが、今後は追いかけてくる様々な要因がそれを押し広げ、同時に目まぐるしいくらい多様化するだろう。モバイルフォンの崩壊というわけではなく、新興国ではインターネットとコンピューティングのゲートウェイドラッグになるし、富裕国でも一定の地位を残すはずだ(少なくともそれは電話という形ではない。カメラが有望だ)。人間の視点からみると、自律的に動く機械が身の回りに増えていき、「human in the loop(人と関与する)」の形で発展していくだろうし、さまざまな処理を機械学習モデルに委託することで、より生産性が高かったりその人の価値観にとって有意だったりすることに使う時間が増えていく。

分散協調する自律的な機械により物事が進んでいくことで、驚異的な効率性を生み出すことになるだろうし、これまでの集権的なコンピューティングでは見えなかったことが生まれてくるはずだ。

経済は爆発的な発展を遂げ、資本主義の次の経済原理をつくることに議論が向かうはずだ。ぼくたちとの機械とのふれあい方は極めて多様化していくし、それが自分たちの能力拡張をもたらしてくれることを実感できる。そのときの機械との接し方は、モバイルフォンの小さいスクリーンではなく、ARや音声などに変わっていくのではないか。