2014-06-30

Google I/O 2014

先週はGoogleの開発者向けイベント I/Oでした。
サンフランシスコのモスコーニセンターにて、今年で3年連続3回目の参加です。
まずは雰囲気を感じられる写真から。

写真で見るGoogle I/O


こんな感じの人だかりです。

キーノートへ向かう途中に2Fを映すとこんな感じ。未だ出展者しか居ないのです。




US対ドイツ戦の人だかりです。セッションそっちのけで見てる人が相当居ました。

1日目終了後のアフターパーティです。今年は初めて(?)外でのパーティでした。雨降ったらどうするつもりだったのだろうか。。。


TANGOです。
Android Autoの説明をしてます。この説明を受けるには整理券が配られてて、ちょっと敷居が高そうだったので、諦めました。
日本人大集合にて。日本人は集まりが良いようです。一大集団に。

はい、以上、雰囲気が伝わりましたでしょうか?

I/Oの所感

去年迄は、GoogleApps APIやDriveの開発者向けのセッションやらブースやらがあったのですが、今年は見事に全く何もありませんでした。キーノートでDrive for Workについて触れられたのみ。
Chrome,Android,PhysicalWeb(Tangoやら),AutoやWearという新コンセプトがほぼ全てで。Cloud Platformが少々。という内容です。気持ちいいくらいすっきりとGoogleAppsについては何も無かったです。AppsAPIについてはもう開発者向けに伝えることは無くなったということでしょうか。まだまだ利用の実体が追いつくまでは広がって無いように思うのですが、Googleはもう先に行ってしまいます。
私はCloudPlatformメインで行ったので、片っ端からCloudPlatformのセッションとBoxトークというものには参加し、ほぼ全部見切れた感じです。(前回はCloudPlatformだけでも全量見るのは不可能でしたが)概ね、3月のパートナーサミットで予告された内容の具体的な中身が出てきたという印象が大きい感じですね。

では、中身を見て行きましょう。

Cloud Platformの新サービス

今回発表されたCloudPlatformにおける新サービス・ツール(として私が識別出来たもの)は以下の6つ。

-CloudSave API
-Cloud Debugger
-Cloud Trace
-Release Pipelines
-Cloud Monitoring(Powered by Stackdriver)
-Cloud Dataflow


Cloud Save APIは、GEO(位置情報)をまとめて保存出来るAPIだそうで。それをまとめてマップにアタッチするようなことが出来そうです。どこまで何が便利になるものなのかイマイチぴんと来ませんでした。

Cloud DebugerはGit上にソースを入れておく前提ですが、Watch Pointと呼ばれるものをソースコード上に設定すると、設定した瞬間に全インスタンスに対してWatch Pointが設定され、最初にそこに来た状態のみをスナップショットして確認出来るという機能です。スナップショットして見るだけなので、既存の状態には影響が無いのと、処理自体は止まらずに正常に終了します。したがってステップ実行のようなことは出来ないですが、メモリ・変数の状態はその場で確認出来ます。
本番環境でちょっと確認したい、というようなニーズには非常にピッタリです。良く分からないのでデバッグコードを埋めてデプロイして。。。。という作業は全く必要無くなります。これはかなり期待出来るので、是非早速社内で検証してみて、弊社開発方法論(IZANAMI)の中に組み込みたいと思います。

Cloud Traceは内部のAPIコールの内容が全部分かるというものです。ブラウザで全部見えて、各時間がどのくらいかかっているかもわかり、視覚的に見えるので、チューニングが簡単になると。

Release PipelinesはGitへのPush時に自動的にMavenだったり外部のJenkinsだったりを順番に叩くようなワークフローを定義することで、テスト環境でチェックを行い、問題なければ本番にリリースされる。というようなリリースプロセスを全自動化出来るというものです。全自動化は怖いので、承認プロセスを入れられるようにしてくれ、とお願いしておきました。

Cloud Monitoringは自動的に利用しているサービスを組み合わせたダッシュボードを生成してくれ、そこに対してアラート(メモリ利用量等)を設定出来ると言うサービスです。詳細はあまり教えてくれるセッションとか含めてありませんでした。Stackdriverとやらで出来る事を調べれば済むのかどうか、分からないです。取り急ぎTrusted Testerに申し込んでおきました。

Cloud DataflowはGoogleがここ数年MapReduceの代わりに利用して来てものだそうで。大量のデータ処理に対してのGoogleとしての最適解のようです。Logic層の実装だけに注力してくれれば、後は勝手に良きにはからっておきます。ということですが。簡単に言うと、旧来言われていたETLの各ステップについて、特定のルールにしたがって実装だけしてくれれば、後は自動的にモニタリング迄含めて全部やっちゃいますよ、と。自動スケールだったり、処理の組み換えまで含めて。未だコンセプト+αでTrusted Testerにさえなってない状態のようでしたが。これは今後押していくようですね。

以上、Google I/O 2014のCloudPlatform周りのご報告でした。







2014-06-19

スカイボックスの未来

以下の記事のように、米スカイボックスがGoogleに買収されました。
http://jp.wsj.com/news/articles/SB10001424052702303838604579627461249397026

さて、この影響ですが、記事の通り僕も非常に大きなものになる予感があります。
インターネットが知識の共有化を図るものだったと思うのですが、その上に地球上のリアルタイムの全ての上空画像が合わさる形になる、ということになる、と。。

これは相当ヤバイことになりそうです。戦国時代であればあらゆる大名が欲しがるというか、これがあれば100戦危うからずでしょう。なにせ、数キロ先から敵の動向が見えとるわけですから、半端ないです。まぁもうこれを黒田官兵衛が持ってれば全戦全勝でしょう!

インターネットが出てきた時の利用想定は実際はパソコン通信の中で過小評価されてた時代があったと思いますが、それに近い話もあるかも知れません。

例えば、株価で言うと本当に各社の発表前にこの情報が漏れることによって折込済の価格になる可能性とかがあります。小売の来場客数とかって意味では、RFIDやセンサー系の技術による小売業自身の把握だけではなく、それと同じか早く概算ででも方向性が出てしまう世の中になるってことだと思います。これらの情報にアクセスしやすいインフラとしてのGCPを押している我々としては非常に興味のある所です。Tangoプロジェクトと、この宇宙からの位置情報の組み合わせに関しては非常に大きな可能性を感じざるを得ないです。

楽しみです。GCPとのつながり含め、これから弊社は最先端のGoogleのシステム開発にこだわって行きます!

あ、結局スカイボックスにはそれ程触れてないけど。。。