かずきち。の日記

サーバサイドエンジニアのつぶやき

産学連携共同研究シンポジウム「クラウド・コンピューティングと大学発ベンチャー」

昨夜、産学連携共同研究シンポジウム「クラウド・コンピューティング大学発ベンチャー」に参加してきました。
screenshot
さっさ卒論やれよって自分に言い聞かせながらも、こんな短時間やらなかったところで論文の質は変わらないと思って行ってしまいましたw
今流行のクラウド・コンピューティングの今後の展望や現在の問題点などについて議論されていました。
ちょっと思うところをまとめておきます。



ウェブの登場

WEB2.0による利用者参加型ネットワーク

これからは?


こんな具合にインターネット革命は起きています。
クラウド・コンピューティング、すなわち巨大サーバに莫大なデータが蓄積され、計算能力を必要な時に必要な分だけ利用する事ができる、そんな時代がやってくるんですね。
これはユーザにとっても、企業にとっても、大きな情報処理能力を自由に利用できるようになります。
そして今までの多額の投資によって支えられてきた資本本位制から、純粋に情報の付加価値が問われる知識本位制への予兆と言ってもいいかもしれません。


思うのですが、コンピュータになじみのない人にとってスパコンって必要なの??って思うのは当たり前なんじゃないかな。
事業仕分けで「2位じゃダメなんですか?」って発言が生まれるのも当然だと自分は思います。
研究室に配属されて学んだことはGoogleAmazonなどの大企業の核となるアルゴリズムは死ぬほど難しいわけではないということ。
きっと検索もレコメンドの中身もブラックボックスだし、なんだかすごそう‥って印象を受けると思います。
自分も去年の4月まではそんなことを間違いなく思っていました。
でも実際にやっていることはちょっと噛み砕けば高校生でも理解できるし、思ったより簡単なものでした。
おそらくGoogleAmazonのすごいところは、アルゴリズムより莫大な計算をいかに簡略化して実行するか。
むしろそっちなんじゃないかなって思います。
情報理工学系研究科の院試対策をしている時もそんなことを思いました。
幅優先、深さ優先、欲張り法‥数理計画法とかどうでもよくね?って思っていましたが、どうやら大事です。
低いオーダーでは大して変わりませんが、データ量が増えれば増えるほど計算量がやばいことになります。
とにかく、世界中のブログ、ニュース、画像、動画、アクセスログライフログ、株価、気象、地震‥ありとあらゆる情報をリアルタイムに計算し続けることはすごい大変なことだと思います。
これは多額の設備投資がないと不可能なことだし、普通の一個人ではできません。
しかし、クラウド・コンピューティングが普及すれば個人レベルでも実現できるかもしれませんね。
スケールアップとスケールアウトは対数のような曲線を描きがちですが、
クラウドを使えば、今までのような多額の設備投資を減らせることができるのですね。
そんな希望があるんだと思います。


講演後、食堂で夕食を食べながら‥友人がこんなことを言っていました。
Googleが世界の情報を牛耳っていくなんてことを聞くけれど、
Googleが扱っているデータは今まで全人類が残してきた情報のたかだが3%にも過ぎない。
そう思えば、まだデータマイニングの可能性は無限大にあるよね。
ここで言う情報というのは普段、友達と何げなく話している会話であったり、高校時代の数学のノートであったり、小学校で作った夏休みの自由研究であったり‥ウェブ上にない情報のことです。
ちょっと考えさせられることだし、面白いなと思いました。


ちなみにクラウドコンピューティング市場は‥
日本市場で2008年494億円で2013年までに3倍
世界市場で2009年140億ドルで2013年まで2.5倍
になると言われているようです。


そしてクラウドには大きく分けて2種類あって、
パブリッククラウドプライベートクラウドがあります。
これはユーザがカスタマイズできるか否かで区分されています。
それらの長所を組み合わせたハイブリッドクラウドもあるようです。


また現在、企業がSaaSの導入にネガティブなのは‥

  • 既存システムとの連携ができない
  • カスタマイズしづらい
  • システムの信頼性、安全性が不十分
  • 重要データが移せない

という理由があるようです。


そして、Hadoopなどの分散処理を行うメリットとしては

  • 機動的にコンピュータ資源が使える
  • 費用対効果に優れる
  • プログラミングの手間が省けること
  • データの増大に耐えられること

があげれらます。


そういえばMapReduceアルゴリズムという知らないアルゴリズムがありました。
自分もよくわかっていないので、解説はここ
まとめるとmapとreduceの2つの関数ですべて終わらせようって感じみたいですw
簡単すぎるかなww
時間があるときに調べてみます。