イベントレポート
Google Cloud Next ’17 in Tokyo
あなたのクラウド利用には無駄がある――「Google Cloud」の4つのキーワードが提示する優位性とは
「Cloud Spanner」は東京リージョンでも利用可能に
2017年6月19日 14:05
6月14日・15日に開催されたGoogleの年次イベント「Google Cloud Next '17 in Tokyo」。2日目の基調講演は、料金・サービスの体系や、オープンクラウド、ビッグデータ分析など、初日よりもエンジニア寄りの内容を中心に語られた。また、食品メーカーのキューピーや、ソニーネットワークコミュニケーションズ、KARTEを運営するプレイドの「Google Cloud」導入事例も語られた。
「あなたのクラウドの利用には無駄がある」
初日の基調講演では、Google Cloudについて「セキュリティ」「カスタマーフレンドリー」「インテリジェント」「オープン」の4つのキーワードが示され、主に「セキュリティ」について語られた(6月15日付関連記事『業務時間における生産的な業務の割合は5%――「働き方改革」のツール「G Suite」で“生産的ではない95%”を減らす』参照)。
2日目の基調講演の最初に登場したGoogle Cloudグローバルヘッドソリューションズのマイルズ・ワード氏は、この4つのキーワードを再び出して、「今日は『カスタマーフレンドリー』『インテリジェント』『オープン』について話す」と宣言。自身は料金やサポートなどの「カスタマーフレンドリー」について語った。
まずは料金の話だ。「クラウドの利用においても無駄がある。固定構成の仮想マシンや、1時間単位の課金などだ。そこに我々のビジネスチャンスがある」とワード氏は問題提起した。
ワード氏はGCP(Google Cloud Platform)について、継続利用割引が自動的に適用されることや、VMのCPUやメモリなどの構成の選択肢や組み合せの柔軟さ、仮想マシンの最適サイズを提案してくれる機能、分単位の課金体系などを、競合サービスと比べて優位にあるものと主張した。
また、新しい確約利用割引では、CPU数とメモリの合計量をあらかじめ購入しておくことで最大57%の割引を受けられる。個々の仮想マシンのCPU数やメモリ量の構成は自由に変更でき、分けあえる点を、ワード氏は競合サービスとの違いとして強調した。
続いて、既存リソースの有効活用についてワード氏は語った。具体的には、Windowsプラットフォームだ。GCPでは、さまざまなバージョンのWindows Serverや、ActiveDirectoryによるアクセスコントロール、アプリケーションから使うSQL Server、Visual Studioからのデプロイ、GCPを操作するためのさまざまなPowerShellコマンドなどを用意し、Windowsネイティブのプラットフォームからクラウドに移行しやすくしているという。「これによって既存の投資を有効活用できる」とワード氏。
また、Googleの公認プロフェッショナル「クラウドアーキテクト」の試験が、日本語で受験可能になったことがアナウンスされた。
最後にワード氏は「餅は餅屋」という日本語を引き合いに出して、GCPを知りつくしたGoogleエンジニアによる高度なサポートの有用性をアピールした。そして2017年第3四半期から提供予定の、新たなエンジニアリングサポートをアナウンスした。月額料金制で、「クラウドサービスを利用するように、必要なサポートを選んで契約できる。ユニークなプログラムだ」とワード氏は説明。「Solution ArchitectやCustomer Reliability Engineer(CRE)の協力も得られる。これはあなたの成功への緊密な協力だ」と語った。
「Cloud Spanner」が東京リージョンで利用可能に
続いてキーワードの3つ目、「インテリジェント」について。Google Cloudエンジニアリング部門 バイスプレジデントのブラッド・カルダー氏が、グローバルスケールのデータベースや、ビッグデータ分析、AIサービスについて語った。
カルダー氏は、GCPのメリットとして、「より短い時間で、いままでにない洞察が得られる」ことを挙げた。毎日膨大なデータが生成されているが、洞察を得るのは大変だ。「GCPであれば、ストレージの容量やインデックスの貼り方、シャーディングなどに頭を悩ませる必要はなく、すべて任せられる」とカルダー氏。
また、リレーショナルデータベース(RDBMS)はスケーラビリティが、NoSQLは一貫性が問題となるというジレンマが語られた。
こうした問題を解決するものとして、水平スケールする分散RDBMSサービス「Cloud Spanner」をカルダー氏は解説した。世界中に分散しつつ、一貫性を保証し、エンドユーザーが世界中のどこにいても高いパフォーマンスが得られるという。RDBMSとしてACIDトランザクションをサポートする。
その上で、インフラやアップデート、可用性の心配などをGoogleがすべて請け負い、利用側は運用について気にする必要がないのも利点だという。
Cloud Spanner は、Google内部では2007年からAdWordsなどで使われ、それが2017年2月に一般向けに発表され、米国では2017年5月から正式サービス提供された。「明日(6月16日)から東京リージョンでも利用可能になる」とカルダー氏はアナウンスした。
RDBMSでありながら高いスケーラビリティを得るための技術要因として、ソフトウェア、ハードウェア、ネットワークの3つがあるという。ソフトウェアとしては、分散コンセンサスアルゴリズムを元に開発。ハードウェアとしては、各データセンターに原子時計とGPS受信機を設置することで世界中で時刻を同期する「TrueTime」によって、地域をまたがって一貫性を保証する。そしてデータセンター間を、高速なGoogle内部ネットワークで結ぶ。
実際にCloud Spannerを使うところを、Google Cloudソリューションアーキテクトの八木橋徹平氏がデモした。題材は、チケットをグローバルにオンライン販売する架空のサイト。世界中からアクセスしても低遅延で応対しデータの一貫性が保たれることが必要になる。
まず新しいデータベースを作る。データベースの名前と、リージョン、ノード数を入力するだけで、データベースが作られた。画面には、世界中からものすごい勢いでチケットが売れていく様子が映し出された。
このシステムで使われたデータベースのER図も示された。15のテーブルが関連付けられたトラディショナルなテーブル設計で、最大のテーブルでは18行のデータが入っているという。八木橋氏が、Cloud Spannerのダッシュボードから、サブクエリなどを含むSQLを実行すると、チケット販売がかかっているにもかかわらず短時間で結果が返った。
また、スキーマの変更やスケールアウトも簡単だと八木橋氏は説明。実際にダッシュボードからインスタンス数を変更するだけで、レプリケーションの設定などなしでスケールアウトさせて見せた。
そのほか八木橋氏は、GCPの監視サービス「Stackdriver」でCloud Spannerのスループットなどを確認するところなども見せた。
BigQueryで「ウェブ接客」
カルダー氏は、ビッグデータ分析のBigQueryについても語った。「現在の企業はデータを活用し、データ中心企業になりたいと考えている。BigQueryを使えば、対話形式でテラバイトやペタバイト級のデータを高速に分析できる」とカルダー氏。さらに、BigQuery Data Transfer Serviceを使うことで、ほかのSaaSなどからデータを取り込めるという。
カルダー氏は、他社の製品やサービスでのBigQuery対応の様子を示し、「BigQueryのエコシステムは急速に発展している。それによって、既存のプロセスと統合できる」と語った。
BigQueryなどのプラットフォームを活用している日本企業として、ウェブ接客ツール「KARTE」を運営する株式会社プレイドの代表取締役CEOである倉橋健太氏が登壇した。
KARTEは、ウェブサイトのアクセス情報やユーザー情報、行動などをリアルタイムに分析し、すべてのインタラクションを可視化するサービスだ。それにより、ひとりひとりに合わせた細かい接客対応が可能になるという。「現在では消費者のニーズも先鋭化していて、集客のあとのプロセスが重要」と倉橋氏は説明する。
KARTEは2015年リリースで、利用が1500社、累計12億ユニークユーザーを解析、ECで5000億円分の流通金額を解析しているという。利用企業として、美津濃やビズリーチ、楽天生命保険の事例が紹介された。
「人が相手では待ってもらえないので、瞬間瞬間で対処していく必要がある。そのためにはインフラのパフォーマンスが重要なので、Googleプラットフォームを活用している」と倉橋氏。
KARTEはもともとAWS(Amazon Web Services)を利用していたが、2016年にGoogle Cloudに移行し、BigQueryとBigtableなどを採用した。Google Cloudによってインフラコストを削減するとともに、安定したインフラにより新しいことができて消費者体験と収益性が向上したという。「KARTEを使うとGoogle Cloudのいいところを使える」と倉橋氏は語った。
動画に映っているものが分かる「Video Intelligence API」をデモ
続いて、AIの分野についてカルダー氏は語った。まず、機械学習フレームワークの「TensorFlow」や、フルマネージド機械学習インフラの「Cloud Machine Learning Enginre」を紹介し、「GoogleはAIを民主化しようとしている」とコメントした。
その上で「アルゴリズムの民主化」として、GoogleがトレーニングしたAIを使うAPIを紹介した。音声認識、画像認識、自然言語などがある。Google検索やGoogleフォトで利用されているという。
その1つとして、画像を理解する「Vision API」についてカルダー氏は説明した。似た画像を探すGoogle画像検索や、ドキュメントからテキストを取り出すOCR機能などで使われているという。
また、3月に発表された「Video Intelligence API」が紹介され、Google Cloudカスタマーエンジニア日本担当マネージャーの菅野信氏によるデモが行なわれた。
デモでは、Google HomeのCM動画を題材に、Video Intelligence APIによって、動画中で見えるものを順番にリストアップして見せた。動画中で見える箇所が示され、例えば犬であれば犬種まで分かる。
また、たくさんの動画の中から「野球」というキーワードで、野球をしている動画を検索するところを見せた。動画中で検索にヒットした部分もマークで示され、菅野氏はその部分を再生して見せた。
「オープンクラウドの勝者はユーザー」
続いてキーワードの4つ目、「オープン」について、Google Cloudプロダクトデベロップメント部門バイスプレジデントのサム・ラムジ氏が語った。ラムジ氏は、MicrosoftのCodePlexや、Cloud Foundry Foundationでトップを勤めた経験のある人物。
ラムジ氏はまず、クラウド時代には「オープンデベロップメント」が重要だと強調。「イノベーションはひとりではなく、コラボレーションによってなされる」とし、「オープン性はGoogleの戦略の根本にある」と語った。
そして、GoogleによるLinux、Python、Gitなどへの貢献を紹介。さらに、2016年にGoogle社員がGitHubのオープンソースプロジェクトにコミットした数が28万7024に上ることなどを示して、オープンソースへの貢献を語った。
ラムジ氏は「オープンデベロップメント」を、システムを高速に開発したり不具合を自分直したりできる「オープンソース」、企業間などでコラボレーションするのに重要な「オープンAPI」、オープンなエコシステムの「オープンクラウド」の3つから説明した。
技術的特異点(シンギュラリティ)の考案者でもあるヴァーナー・ヴィンジのSF小説も引き合いに出した。恒星間飛行が行き交う世界で、1万年前のコードを保守している「プログラマー考古学者」が登場しており、「未来のエンジニアのためにもオープンでなければならない」とラムジ氏は言う。
Googleのオープンデベロップメントの例として、まず「Kubernetes」が挙げられた。社内のコンテナー技術をもとにオープンソースで再開発され、Google社員以外からも1万5000人という多数のコントリビューターが集まっている。もう1つ、TensorFlowの例も挙げられた、Google社員以外から475人のコントリビューターがいて、デフォクトスタンダードの機械学習ライブラリとして多数の企業で使われていると語られた。
ラムジ氏はさらに、「Open Source」「Open Access」「Open Ecosystem」を、3つの柱として掲げた。「オープンクラウドでエコシステム急速に広がる。Google Cloudの上で、独立したソフトウェアベンダーがソフトウェアを開発してそれが購入されるということが行なわれている」と氏は説明し、「オープンクラウドの勝者はユーザー」と語った。
キューピーの現場力とAIが新結合
最後に、Google Cloudマネジングディレクター/セールスオペレーションのオリヴィア・ノッテボーム氏の案内により、日本での事例として2つの企業が登壇した。
1社目は、食品メーカーのキューピー株式会社から、生産本部次世代技術担当担当次長の荻野武氏が登場した。
荻野氏は最初に「『キューピーがAI?』と思われるかもしれない」と言いながら、熟練工の力を機械学習で再現しようとする取り組みを紹介。経済学者のヨーゼフ・シュンペーターが「イノベーション」の元として論じた「新結合」を取り上げ「キューピーは現場力とAIを新結合させる」とした。
キューピーでは、設備予兆診断や商品開発支援などいくつかのところで、現場の課題をAIで解決することを試みているという。その中から、原料検査装置でのAIの事例が紹介された。
対象となるのはベビーフードで使われているダイスポテトの検査だ。人が目視で1つ1つ取り除いているが、集中力が必要で大変だという。これまでの技術では機械化不可能だったが、それをAIで解決しようとした。Googleに相談してブレインパッドと協業し、TensorFlowを採用した。
これまで機械化不可能だった理由に、不良品はパターンが多すぎる点があった。そこでAIが良品の画像を1万8000枚ほど学習し、不良品ではなく良品を判断することにしたという。これを2016年12月に構想して、2カ月後にプロトタイプが完成し、人間を上回る検知ができるようになったという。
2社目として、ソニーネットワークコミュニケーションズ株式会社のクラウド&アプリ事業部門クラウド開発運用部2課課長の川田雅人氏が登場した。
同社では、ソニーグループのクラウドサービス開発やグロース支援、ニュースアプリなどのメディア事業などを行なっている。こうした事業のためにビッグデータ分析の生産性を上げるために必要なこととして、人を中心とした「ボリュームと多様さ」、PDCAを早く回す「機敏さ」、分析官だけでなくエンジニアやビジネスも入れる「データ分析の民主化」の3つを川田氏は挙げた。
その基盤としてBigQueryが採用された。まず2015年にアドホック分析環境に導入。特に費用・性能と運用のアドバンテージが高いと判断したのが決め手で、データ自身の運用に注力できるようになったという。
2016年からは商用データ分析基盤に導入した。商用データ分析基盤「DBE」では、さまざまなデータソースから流れてくるデータを、ETL部分を介してBigQueryに取り込み、分析や可視化に使う。システム構成の工夫としては、Analysis(分析)とDataMart層(アウトプット)の間にIntermediate(中間)層を作って、変換しやすいデータ化や保存などに対応したという。