iNTERNET magazine Reboot

Pickup from「iNTERNET magazine Reboot」その5

すべてのウェブ・ネット関係者に読んでほしい! 及川卓也が解説する「ウェブの進化が支えるデータ社会」全文公開

iNTERNET magazine Reboot「インターネット新世紀」に掲載している「ウェブの進化が支えるデータ社会」という記事は、グーグルのChrome開発にも携わったことのある及川卓也氏による寄稿。90年代のWWW(World Wide Web)から、現在幕を開けようとしているAI・IoT時代に至るまで、ウェブがどのように変わり、社会にとって変わらず重要であり続けるかを技術視点から解説している。すべてのウェブビジネス、デジタルビジネスにかかわっている人たちに、ぜひ読んでいただきたい。(iNTERNET magazine Reboot編集長・錦戸 陽子)

ウェブの進化が支えるデータ社会

データを生み続け、情報のあり方を変容させてきたウェブ技術の歴史とこれから

1990年代から2000年代初め、ウェブは情報発信技術が中心だった

 20年前のウェブを見たら、あなたはびっくりするかもしれない。静的な見た目に代表される、現在と比べるとあまりにも貧弱な表現力には、20年という歴史を感じざるをえないだろう。しかし、ウェブには当時から今に至るまで変わらないものがある。

 ウェブは1990年代初頭に発明されたが、一般に普及したのは、インターネット接続機能が標準装備されたWindows 95上でブラウザーが利用されるようになった1990年代後半とされる。

 当時のウェブは情報発信技術として注目されていた。HTMLのHがハイパーテキストの略だということも最近では忘れられているかもしれないが、テキストや画像、音声などを交えた情報を簡単に発信・共有できる技術として一気に人々の興味を集め、その後ADSLの普及とともに社会に定着した。

 現在は完全にエンタープライズに集中するようになったIBMも、当時はコンシューマー向け製品を展開しており、「ホームページビルダー」というウェブ制作ソフトウェアを出していた。そんな時代だ。書店では、「あなたもウェブページを作って世界に情報発信しよう」といったポップとともに、ウェブ制作を解説した書籍が棚を飾っていたる[*1]。そのころのウェブページは、今見るとあまりにも画一的であり、古臭いことは否めない。たとえば、marquee要素で「工事中」の文字が左から右に流れるサイトがいかに多かったことかる[*2]

構造化された情報を集める検索エンジンの登場

 当時も今も変わらないのは、ウェブは人が見るものであると同時に、機械が読むものであるということだ。

図1 人と機械が利用するウェブ

 ウェブ、特にHTMLの特徴は情報が構造化されていることにある。HTMLでは、H1やH2といったタグで文書構造を明示する。のちのセマンティックウェブにつながる源泉はHTML時代からすでにみられた。構造化された情報とその可視化の分離は、SGMLなどに代表されるようにウェブ登場以前から行われていたが、ウェブによって花開いたといっても過言ではない。

 その結果、登場したのが検索エンジンである。クローラーと呼ばれるロボットがインターネットをくまなく這い回り、集められた情報を索引とする。その索引をユーザーが引くことで、目的とする情報にたどり着く。これが検索エンジンの基本動作原理である。グーグルの登場は1998年だが、この原理はそれから19年たった今でも変わっていない。

ウェブのアプリケーション化が進んだ2005年前後

 グーグルはウェブの歴史に大きな影響を与え続けている企業であるが、同社の貢献は検索エンジンだけにとどまらない。Gmail、Googleマップなど、グーグルが世に出したウェブアプリケーションは人々の生活を一変させただけでなく、その後のコンピューティングそのものを大きく変化させた。

 Gmailは2004年、Googleマップは2005年に登場した。人々がよく使うソフトウェアを時系列で並べると、この2005年前後を境に大きく変化したことがわかる。2004年ごろまでは、パーソナルコンピューターにインストールして使うソフトウェアが多かった。しかし、2005年以降はブラウザーの中で動作する、いわゆるウェブアプリケーションが大半を占めるようになっている。ツイッターやフェイスブックなどのソーシャルネットワーク、ユーチューブやニコニコ動画のような動画視聴、Googleハングアウトなどのビデオ会議もすべてブラウザー内で動作する。

 このウェブのアプリケーション化を支えたのが、Ajaxと呼ばれる技術である。現在でもまだ使われている技術であるが、もともとはマイクロソフトが自社のメールサーバーであるExchangeをブラウザーから使えるようにするために開発したActiveXコントロールのXMLHttpRequestを、その他のブラウザーが実装したことで普及した。

 リクエストに対するレスポンスという基本的には静的なデータの交換しかできなかったウェブに非同期の機能を追加したXMLHttpRequestは、当時の技術を無理やりハックした感じのものであったが、これにより動的なウェブが実現された。

 Googleマップ登場以前のウェブ地図は、今日からは想像もできないほど貧弱であった。ブラウザーで見えている地域より少し北の地域を見たければ、画面に表示されている上向き矢印をクリックすることでその領域の地図を得られるのだが、これがすべて静的に処理される。つまり、クリックすると、サーバーから該当する地図画像をダウンロードし、それを再描画するのだ。このような動作では、デスクトップのアプリケーションをウェブに置き換えることは、とてもではないが不可能だった。

 同じことはメールクライアントにもいえる。Gmail登場までは、メールクライアントといえばWindowsに標準搭載のOutlook ExpressやOfficeに含まれていたOutlook、それにいくつかのサードパーティーのものだった。ウェブメールもすでに登場していたが、その操作性の悪さやメールボックス容量の少なさから、メインのメールアカウントとして使う人は皆無だった。一時的な使用や身元を明かしたくないやりとりのためだけに使うことも多かったため、ウェブメールのアカウントを「捨てアカ」とさえ呼ぶようになっていた。

 しかし、このようなウェブ地図やウェブメールの評価は、GoogleマップとGmailが登場して一変した。Googleマップはそれ自体に加えて、その上でさまざまなデータを可視化したり、ほかのウェブAPIと連携させるマッシュアップのプラットフォームの代名詞となった。Gmailは、個人だけでなく企業にも使われるクラウドアプリケーションの代表格となった。

現代のウェブは情報共有とアプリケーションのためのプラットフォーム技術

 ウェブ技術もそれに合わせて進化した。ここでもグーグルの貢献は大きい。グーグルがChromeの提供を開始したとき、彼らはこう言った。「ウェブで暮らす人々のために」作ったと。

 Chromeが登場した2008年には、グーグルだけでなく、すでに多くの企業や個人がウェブアプリケーションを開発していた。しかし、ブラウザーの進化は止まっており、それがイノベーションの阻害要因となっていた。今だからこのようにいえるが、当時はブラウザーはとっくに枯れた技術とさえ認識される状況であった。だからこそグーグルがブラウザー市場に殴り込みをかけたときは、「なぜ今さら」とさえ言う人もいた。

 ブラウザーは今でも新聞などで紹介されるときは「インターネット閲覧ソフト」と解説されることが多い。しかし、GoogleマップやGmailを操作するとき、そのブラウザーはもはや「インターネット閲覧ソフト」ではなく、クラウドアプリケーションの重要な一角を占めるフロントエンド技術にほかならない。そのクラウド技術の進化を再加速させるために、グーグルはChromeを世に投入したのだ。

 結果、ブラウザー技術は息を吹き返し、HTML5と呼ばれる次世代ウェブ標準はバズワードにさえなった。ファイアフォックスも「ウェブを再発明しよう(Rediscover the web)」とキャンペーンを張った。

 現代のウェブを再定義するとしたら、こうなるだろう。「情報発信・共有プラットフォームであるとともに、アプリケーションのためのプラットフォーム技術である」と。

データ生成能力でIoT・AI技術を下支えするウェブ

 アプリケーションプラットフォーム化は、さらなるインターネットの進化を呼んだ。それがIoTである。インターネット技術を用いてすべてのモノがインターネットにつながるのがIoTであるが、そこでもウェブがコア技術として使われている。ブラウザー経由でさまざまな機器が操作できるのはもちろんのこと、IoT同士が有機的に連携するのにも使われる。まさに、ウェブという名前の由来である「蜘蛛の巣」のようにIoT同士をつなぎ合わせた世界が作られようとしている。

 第3次AIブームと呼ばれる今、機械が人の仕事を奪うと心配をする人も後を絶たない。その心配はともかくとして、なぜ、AIが取り沙汰されるのかを考えると、今後のコンピューティングの将来が見えてくる。

図2 IoTやAIによりデータは生成・再生成される

 現在のAI技術を支えるものの1つがニューラルネットワークである。脳神経回路をモデルとするこの技術は古くから研究対象となっていたが、最近になって一気に普及し始めた。これは主に2つの要因による。

 1つは学習用データの充実だ。ニューラルネットワークを用いて学習するためにはデータが大量に必要となる。たとえば、画像認識の典型的な用途である顔認識を考えてみよう。ある写真に写った顔の性別や年齢の推定をするためには大量の顔写真が必要となる。これらのデータの入手は、ウェブの登場により以前と比較して格段に容易となった。

 もう1つの要因は演算能力の向上だ。これはクラウドによるスケールアウトおよびスケールアップの双方の能力向上に加えて、汎用GPU計算(GPGPU: General Purpose GPU)によるところも大きい。グラフィックス用途のプロセッサーであるGPUの能力が機械学習の必要とする演算能力と一致したことで、このGPUを汎用的に用いるというアイデアが生まれた。その結果、一昔前には数日かかっていた計算が分単位で可能となり、それにより学習の反復が高速化した。まさか、GPUメーカーとして知られているエヌビディアがAIでも注目を集めるような時代が来るとは想像もしていなかった人も多いだろう。

 この2つの要因のうち、ウェブは特に1つ目のデータの充実に貢献する。冒頭で解説したように、ウェブはそもそもが情報発信・共有のための技術として生まれ、発展してきた。ウェブで公開されたデータは機械も利用する。検索エンジンを例に紹介したが、検索エンジンもAIの一種と考えることができる。グーグルは「モバイルファーストからAIファーストへ」と宣言しているが、ウェブ企業からAI企業への進化を感じさせるこの宣言の背景には、ウェブ自体がデータ生成器として発展してきていることもあるのだろう。

 このデータの充実は、すべてのモノからデータを収集するIoTにより、さらに加速する。また、昨今自治体などが積極的に進めているオープンデータの普及も追い風となる。

 オープンデータも人以外に機械が利用するデータである。オープンデータを公開したはよいが、なかなか使われないという悩みもたまに聞く。この点も、ウェブ技術で解決を図れるようになってきている。

 グーグルで検索すると、検索結果ページにウェブページへのリンクと簡単な抜粋文(スニペット)だけでなく、ウェブページの情報の一部が表示されていることがあるが、これはリッチスニペットと呼ばれる機能による。

 たとえば、レシピを検索した場合は調理時間や料理の写真がサムネイルで入る。また、レストラン検索の場合はレビューレイティングなども含まれる。これらがリッチスニペットの例だ。

図3 リッチスニペットの例

 これを実現するためには、Schema.orgという構造化データのマークアップ記述を利用する。Schema.orgはグーグル、マイクロソフト、ヤフーにより策定された仕様で、検索エンジンに意識的に情報を伝える手段を提供する。たとえば、先ほどの調理時間やレストランのレビューレイティングなどがSchema.orgにより規定され、タイプをウェブページに埋め込むことにより実現されている。

 Scheme.orgを使ったウェブページであっても、もちろんそのまま人が読むことができる。それに加えて、Googleに代表される検索エンジンである機械も読む。機械は検索エンジンに限らない。さまざまなウェブページからの情報を組み合わせることで自動生成されるウェブページもある。その代表例が検索エンジンということにすぎない。キュレーションサービスなども、自動収集され、新たな情報として生成されている例だ。

 このように、機械に読まれる情報は、さらに新たな情報を生成する。これにより、情報すなわちデータが増加する。これが今まさに起きつつあることである。ウェブの利用が今後も進み、IoTによりセンサー系のデータなども増え、オープンデータといった公共データの利活用も進む。AIによる情報化社会は、このようなウェブの進化が支えている。

AI脅威論について思うこと

 機械に人の仕事が奪われるというAI脅威論については、個人的にはアドバンストチェスの話を思い出す。チェスでは、IBMが開発したAIシステムであるディープブルーが1997年に人間に勝った。その後、人間がコンピューターのアドバイスを得ながら参加できる競技、アドバンストチェスが登場した。コンピューター単体でも参加できるが、ディープブルーが人間を破った後も、しばらくの間はコンピューター単体ではなく、人間とコンピューターの組み合わせが最強だった。

 チェスのような比較的ルールが単純でコンピューターが得意とする分野であっても人間と機械の組み合わせが最も優れていることが証明されているように、AIなどの機械は脅威ではなく、むしろ人が進化し続けるための道具となりうる。人と機械の進化のための情報やデータのあり方を支えるのがウェブである。ウェブの進化が人と機械の進化につながる。その事実を、ウェブの歴史は証明している。

[*1]……ホームページビルダーは2010年に著作権と商標権が譲渡され、現在はジャストシステムの製品となっている。

[*2]……しかも、そのほとんどが永遠に工事中のままであり、建設作業員が穴を掘っているアニメーションGIF付きと決まっていた。

及川 卓也(おいかわ たくや)

マイクロソフトでWindowsの開発に従事したのち、グーグルにおいて検索製品のプロダクトマネージメントとChromeの開発に携わる。その後、スタートアップを経て、独立。現在、企業へ技術戦略、製品戦略、組織づくりのアドバイスを行っている。