ニュース

いくつ覚えてる? Googleが25周年で振り返る検索サービスの歴史~画像検索から生成AIによる「SGE」まで

 Googleは9月11日、Google検索25周年の節目における振り返りとして、これまで検索に追加されてきた機能を振り返る記事を、Google Japan Blogで公開した。

 ここでは、Google Japan Blogの記事で紹介された「進化」のトピック24件を、INTERNET Watchと僚誌の当時の記事とともに振り返りたい。なお、Googleが検索サービスをローンチしたのは1997年、法人設立は1998年。当誌が初めて「Google」の名称を記事で取り上げた記事として確認できるのは、米Yahoo!のデフォルトサーチエンジンに採用されたことを報じた2000年6月27日付けの記事だった。

2001年

1.画像検索

 2000年のグラミー賞に出席した女性歌手・ジェニファー・ロペスが着ていたドレスが話題となり、当時のGoogle検索で人気のクエリ(キーワード)となったが、当時の検索結果はウェブページへのリンクのみで、望む画像を見つけることは困難だった。これが、画像検索を開発するきっかけになったという。

 INTERNET Watchでは、2001年6月27日公開の記事で、画像検索(Google Image Search)のベータ版公開を報じている。当時はまだ日本語に対応していなかったが、ローマ字で「fujisan」などのキーワードでも、ある程度の結果が表示されるとしている。

2.「もしかして」

 検索キーワードにスペルミスがある可能性があるときに、正しいスペルを提案する機能。機械学習の最初の応用例の1つだとしており、現在では、正しいと思われるキーワードの検索結果が表示される場合もある。

 INTERNET Watchではこの機能のスタートを報じていないが、2004年11月15日に、機能の一時停止を報じている。

2002年

3.Google ニュース

 前年2001年の9月11日に同時多発テロが発生したとき、タイムリーなニュースや情報を求めて検索する人が多かった。「リアルタイムのニュースを知りたいというニーズを満たすため」に、さまざまな出典からの記事をトピックごとに整理した「Google ニュース」が、2002年に開始された。

 INTERNET Watchでは、2001年12月15日に、同サービスの原型となるニュースヘッドラインをまとめたページが開設されたことを紹介。2002年9月24日に、正式公開を報じている。

2003年

4.イースターエッグ

 いわゆる「隠しコマンド」的な機能。2003年に登場した最初のイースターエッグの1つは「人生、宇宙、すべての答え」だったという。

 2005年に電卓機能(「電卓」と検索すると検索結果に電卓が表示され、実際に利用できる)の強化について紹介した記事で、オマケとして、この「人生、宇宙、すべての答え」についても言及している。

2004年

5.オートコンプリート(Goggle サジェスト)

 入力された文字から検索したいキーワードを予測し、候補を表示する機能。「もしかして」の発展形といえる。現在、このオートコンプリート機能によって入力操作が平均25%削減され、1日に推定200年以上の時間が節約されているという。

 2004年11月13日の記事では、当時存在していた実験的技術/サービスを公開する「Gooel Labs」内で、ベータ版として公開されたことを報じている。

6.地域の情報(ローカル検索)

 「渋谷区、ピザ」や「恵比寿の美容室」のような、特定地域で店舗やサービスを探す検索行動に対応し、検索結果に情報を表示するローカル検索がスタート。地図、ルート、レビューなどの関連情報が確認できるほか、2011 年には、モバイルから1タップで電話できる 「Click-to-Call」も追加された。

 2004年3月18日の記事では、「Google Local」として米国限定でサービスが開始されたことを報じている。日本でのサービス開始を報じた記事は2005年7月14日公開。「タウンページの情報をもとに地域ごとの情報をインデックス化した」と説明している。

2006年

7.Goggle 翻訳

 2002年から機械翻訳の開発を開始し、2006年にサービスを公開。INTERNET Watchでは、2004年11月24日にウェブサイトの翻訳機能ベータ版を紹介し、2007年5月24日の記事でキーワードを翻訳して検索できる翻訳検索機能を紹介している。

8.Google トレンド

 集計データを使用し、検索のトレンドを理解するために開発された機能。現在では、無料で提供されている同種のデータセットとしては世界最大級であり、各界から時間軸で検索の変化を知る方法として活用されているという。

 2006年5月11日公開の記事では、「yankees」と「red sox」のトレンドの比較などを紹介している。

2007年

9.ユニバーサル検索

 検索結果ページに、ウェブページへのリンクだけでなく、画像や動画、ローカル検索結果なども表示するようにしたもの。現在では当たり前になっており、見慣れた画面だが、全てのコンテンツ タイプをまとめて検索でき、それを明確で直感的な方法で表示できるようにシステムを再設計した結果可能になった機能であり、「当時のGoogle 検索において最も根本的な変更」だったとしている。

 2008年6月9日公開に記事で、当時のユーザーエクスペリエンス部門副社長であったMarissa Mayer氏によるコメントを紹介。「例えば『蝶ネクタイの結び方』という検索に対しては、図解や動画がユーザーにとって最も役に立つものだ」と同氏は語り、「検索に対する一番良い答えはWebページとは限らない」という考えに基づいて、ユニバーサルサーチを開始したとしている。

2008年

10.Google モバイルアプリ

 AppleのApp Storeの登場を受けて、iPhone向けのGoogle モバイルアプリがリリース。オートコンプリートや「現在地」などの機能によって入力操作が少なくなり、検索がより簡単になったとしている。

 App Storeが登場したのは2008年7月10日で、「iPhone 3G」の発売と同日。INTERNET Watchでは、翌7月11日付けの記事にて、このことを報じている。Gppgle モバイルアプリのリリースは、次の音声検索のトピックにて。

11.音声検索

 マイクを通した音声入力により検索できる機能。2008年にGoogleモバイルアプリに導入され、2011年にはPC向けにも導入された。INTERNET Watchでは、2008年11月19日付けの記事で、「Google Mobile App」のリリースと音声検索を紹介しており、「『しょ』と入力した場合には、『しょこたん』や『昭和記念公園』などが候補として表示される」と、サジェスト機能にも言及している。

 なお、当時の音声検索は英語のみの対応だった。音声検索の日本語対応については、2009年12月7日公開の記事で報じている。

2009年

12.緊急ホットライン

 「娘が危険と思われるものを飲み込んだときに中毒関連情報がなかなか見つからなかった」と言う母親からの投書を受けて、関連する検索結果ページの上部に、毒物管理ホットラインを表示するようにしたものが、この機能の始まりだったという。その後、自殺予防などの情報を、検索結果の上部に表示するようになっていった。

 INTERNET Watchで、この緊急ホットラインを報じた記事はなかった。同種の施策を扱った記事として、2007年に、Yahoo! JPANが「死にたい」などの自殺防止へのリンクを表示するようにしたことを報じている。

2011年

13.画像で検索

 検索キーワードの代わりに、画像をアップロードする、または画像ファイルのURLを示すことで、類似した画像や、その画像への関連情報を検索する機能。INTERNET Watchでは、この機能のベースといえる「Google Goggles」(Androidスマートフォンのカメラで撮影した写真をもとに検索する機能)を2009年に紹介しており、PC向けの新機能としての実装予定を、2011年6月15日の記事にて紹介している。

2012年

14.ナレッジグラフ

 検索結果画面に、関連情報を表示する「巨大なバーチャル百科事典のような」機能。著名人や企業などを検索した際に、Wikipediaを出典とした情報が表示される「ナレッジパネル」もその1つ。

 2012年5月17日の、サービス開始を報じた記事では、「taj mahal」という検索キーワードに対し、インドの世界遺産「タージマハル」や、ミュージシャン「タジ・マハール」の情報を表示する例などを紹介している。2012年12月5日の記事では、日本での開始を報じている。

2015年

15.混雑する時間帯

 飲食店や店舗、美術館などの施設を検索したときに、ユーザーのロケーション履歴にもとづいて、その施設の時間帯別の混雑予測を検索結果に表示する機能。

 2016年に11月25日にこの機能を取り上げた「やじうまWatch」の記事では、「お店が混雑する時間帯が分かって便利という声がある一方、どことなく怖いという反応もちらほら」と、当時のユーザーの声を紹介し、「同じ建物の上下のフロアをどうやって見分けるのかといった、技術的な興味も尽きない」ともコメントしている。

2016年

16.Discover

 当初はパーソナライズされたフィード(Google Feed)として登場し、2018年に「Discover」となった、パーソナライズされたニュース記事などのコンテンツを表示する機能。今ではAndroid端末やGoogleアプリのホーム画面でおなじみの機能となっている。INTERNET Watchでは、この機能の開始を報じた記事はなかった。

2017年

17.Google レンズ

 スマートフォンのカメラに映した映像をもとにして情報を検索できる機能。現在では現在では、Google アプリ内に表示された画像に対しても利用でき、Google レンズを使った画像検索の数は、毎月120億件以上に達しているという。

 この機能ついては、僚誌ケータイWatchが記事を公開している。また、2019年10月29日のやじうまWatchでは、「Pixel 4」で発見されたという、ちょっとしたGoogle レンズのイースターエッグを紹介している。

2018年

18.洪水予測

 AIを活用し、洪水発生の時期と場所を予測する機能。インドで提供を開始し、現在80カ国で提供しているが、日本には未対応。他社が提供している日本向けの洪水情報などの防災情報サービス(洪水の時期や場所の予測ではない)は、以下の記事などを参照のこと。

2019年

19.BERT

 キーワードの「意味」を理解し、検索機能を強化するために採用された、機械学習を用いた言語理解モデルの強化技術がBERT(Bidirectional Encoder Representations from Transformers)。僚誌Impress Watchの2019年10月19日の記事にて、「過去5年間で最大の飛躍」として紹介している。

2020年

20.Shopping Graph

 ショッピング体験を強化するために、製品のブランドや価格、レビュー、在庫などの情報をAIによりデータセット化したもの。2021年の「Google I/O 2021」で発表された。後の「バーチャル試着」などのショッピングサービスと連携しており、現在では約350億件の製品リストにより構成されているという。

2020年

21.鼻歌検索

 スマートフォンで、鼻歌により楽曲を検索可能になった。Impress Watchの2020年11日12日公開の記事では「Google AIチームによる楽曲認識(Music recognition)が基盤の技術となっている」など、詳細に技術面の解説をしているので、参照いただきたい。

2021年

22.「この結果について」

 検索結果結果について、情報源の信頼性を確認できるよう、補足となる情報が表示される機能。

 2022年11月2日公開の記事にて、この機能が日本に提供された際の、Googleのダニー・サリバン氏(Public Liaison for Search)による説明を紹介。氏は、同機能によりGoogleが目指すことについて「情報リテラシーに関する機能を開発、実装することで、サイトの情報の正しさを確認し、情報の真偽について自信を持って利用できるようにする環境を実現したい」といったコメントをしている。

2022年

23.マルチ検索

 テキストと画像を用いて検索できる、Google Lensの発展形のような機能。なかなか説明の難しい機能だが、ダイニングテーブルの写真を撮り、「コーヒーテーブル」と文字情報を加えることで、同じデザインのコーヒーテーブルを探す、といった使い方ができるという。

 2022年10月26日のやじうまWatchの記事で日本語対応を紹介しており、「モデルが着用している衣類の写真で画像検索を行ったのち、それに別のカラーを条件として追加することで、色違いの衣類を見つける」という使用例を紹介している。

2023年

24.Search Labsと「生成AI による検索体験」 (SGE)

 最新の「進化」は、検索結果画面に、生成AIによって情報の概要が表示される「生成AIによる検索体験」(SGE)。2023年8月30日の記事で、日本で試験運用が開始されたことを報じている。

 生成AIにより情報を表示することで、調べものを検索結果画面で完結させてしまうことが狙いではなく、トラフィックをウェブサイトに送ることに(これまでのウェブ検索と同様に)注力する、といった説明もされている。