tokoproject.com

TOKO PROJECT

仮想通貨・ビットコイン・ICOに関連するブログになりました。トークン大好きです。

TOKOPROJECT

LIFE WITH CRYPTOCURRENCY

イベントレビュー:Google Atmosphere Tokyo 2016 GoogleAppsでも機械学習の活用が加速していく。AIを誰にでも利用可能に。

f:id:toko926:20160615234228j:plain

www.womenwill.com
 
6月14日(火)15日(水)の 2 日間、六本木ヒルズにて「Google Atmosphere Tokyo 2016」を開催されました。グーグルが提供する企業向けクラウド型グループウェア、GoogleAppsについて、グーグルのエグゼクティブやサードパーティアプリのベンダーやユーザー企業が集まり、新サービスや今後のサービス拡充の展望の発表から利活用事例の共有などが行われています。Google I/Oと比べると地味ですが、エンタープライズでGoogleAppsを検討していたり、既に活用している企業のIT担当者、販売しているプレイヤーにとっては必見のイベントです。サイトにて基調講演の動画が公開されていましたので閲覧しました。特に印象に残った、一部共有したいと思います。
 
※イベントが終了し現在はHPから動画を閲覧することができません。

AppsでもAIシフト機械学習の導入でユーザビリティを高めていく

f:id:toko926:20160615222128p:image

言わずもがな、AIの時代です。2000年ごろからインターネット上の検索を機械学習を捌いてきたグーグルはトップランナーです。その最高の経験値と最高の設備(クラウドとネットワーク)を備えており、これをコンシュマー向けのプロダクト(先日発表されたGoogleHomeやGoogleNowのような)に留まらず、エンタープライズ向けにも投入し、ビジネスの効率性を高めていく。現時点でも、Googleのスプレッドシートでは、データが入力されているセルを選択すると、自動でグラフなどのインサイトを作成し表示してくれるなどありますが、この流れを加速させる取り組みが紹介されました。

f:id:toko926:20160615222148p:image

人工知能に至るまでの流れです。クラウド化が叫ばれた2010年頃からこの6年ぐらいの出来事です。何かあっという間で感慨深いです。データがクラウドに格納されどこからでもアクセスできるようになり、リアルタイムに情報の変更や伝達が可能になり、2012年ごろからスマートフォンとネットワークの性能アップによりビジネスでのモバイル+クラウドが加速しデータベースが爆発的に増えてきた。このモバイル+クラウド+リアルタイムという3つのビッグデータ時代のベースを更に高次元なレベルで活用をしていくという流れです。

f:id:toko926:20160615222237p:image

Googleでは既にコンシュマー向けプロダクトで機械学習が使われています。Google翻訳(1番左)では画像やユーザーの過去のデータからAIが翻訳方法を導き出し実行してくれる。GoogleフォトやOK Googleなど慣れ親しんだものから、最近では自動的に返信の文章を考えてくれるスマートリプライ(多分英語限定)や、既に試験運転を行っている自動運転車Selfdriving Carも機械学習を利用しています。アルファ碁もそうですね。下の画像はGoogleが提供するサービスでの機械学習がどのような形で利用されているかを表しています。

f:id:toko926:20160615222227p:image

誰にでも機械学習を利用可能に。機械学習自体が障壁にならないように。

f:id:toko926:20160615225523p:image

f:id:toko926:20160615225554p:imageGoogleはGoogleAppsのプロダクトにビルドインで機械学習による機能を提供するだけでなく、ユーザー企業が自社で機械学習を導入できるように整備をしていくそうです。これまでもユーザー企業が保有する膨大なデータを検索・分析など利用できるようにしたGoogleBigQueryなどを提供してきましたが、クラウドストレージ、クラウドデータベース、機械学習のAPIを総合的に提供しユーザー企業が自ら機械学習モデルを構築できるように支援していくそうです。これによりユーザー企業は自社のビジネスで集まるデータを高度に分析し、スプレッドシートなどGoogle Appsのプラットフォーム上で展開していけるようになります。

また、既にGoogleがモデルとして構築が終わっている、音声認識、画像認識、翻訳などの機械学習モデルはAPIとして提供されています。

f:id:toko926:20160615225536p:image

こちらは、機械学習の利用例です。データには2種類あり。構造化されたデータというのはCRMのデータや、メールなどのデータ。非構造化データはコールセンターの応対履歴など。抽象的で即時利用できないデータですね。これを例えばAIが音声をテキスト化し、CRMの顧客データや営業活動のデータと結びつけて分析や提案を行ってくれる。そんな構造化と非構造化データの横断的な利用もできるようになる。GoogleAppsは非常に優れたコラボレーションツールですが、AIともコラボレーションし更に優れたツールになっていく。GoogleAppsで提供されているの範囲外の利用料金については言及されていなかったですが、どのように提供されるのでしょうか。

f:id:toko926:20160615233436p:image

こちらはVisionAPIの説明とデモです。機械学習がアベイラブルに。深くは触れません。

f:id:toko926:20160615233449p:image

 

f:id:toko926:20160615233519p:image

こちらは音声認識のAPI。保存した会話からテキストを抽出など。IBMワトソンのコールセンター活用が既に始まっていますが、カスタマー対応領域でのロボットの活用が本当にリアルに感じられます。

f:id:toko926:20160615233529p:image

これはGmailでの検索の場面。現在は検索ボックスに探したいメールやファイルの情報を入力していますが、今後は話しかけることでできてしまします。そして言語の壁も超えています。英語で「2日前に受信したGoogleAppsに関する最新の情報を見せて」と話すと、日本語のメールの中からファイルを探しだしてくれます。GoogleApps以前はメールはフォルダ分けをし整理をしていて、その後は整理せずに検索をしていました。今後は話しかける事により行い、そして機械学習により精度が上がっていく。メールボックスに至るまでの動作から、メールボックスを開いた瞬間に、「このファイルをお探しですか?」なんて提案してくれる日が来るかもしれません。

f:id:toko926:20160615234012p:image

 

f:id:toko926:20160615222118p:image

イベントでは、ユーザー企業が利活用事例の共有を行っていました。フジテック(エレベーターの)ではGoogleAppsを導入し、今後は上記の写真のように機械学習や音声認識を現場で活用できるようにトライしていくとのこと。「OK Google!、2週間前のメンテナンスのレポートを教えて」みたいな感じです。企業の内のデータベースから学習し結果を返してくれるアシスタントなんて最高ですね。ホテルや高級レストランなどでも、来店した顧客の認識から過去の嗜好性からすべき対応や提案などを機械が現場レベルで提案できる時代が近づいていることを感じました。以前に紹介したメジャーインダストリーにビッグデータの現場投入ソリューションを提供するアメリカのユニコーン企業、Uptakeテクノロジーを思い出しました。Googleは競合になるのか、パートナーになるのか。

blog.tokoproject.com