北ヤード第1期開発の目玉のひとつが
ナレッジキャピタルというものだということは、情報としては知ってるんですが、そもそも、ナレッジキャピタルってなんやねん?と(笑)
一応、サイトがあるんで、覗いてみることにします。
http://kita-yard.com企業、研究者、クリエイターが世界の「感性」「技術」を持ち寄り、交わり、コラボレーションすることで新たな価値を生み出していく複合施設。
と、あります。
まあ、官学とクリエイターが一堂に集まってなんかをやるんやろうな、くらいのことはわかるんですが、どーも、イメージしにくいんですよね。具体的なモノが見えてこないと、わかんないです。頭、悪いんで(笑)
なんてかんじで、どっちみち3年先の話だし、まだどうでもいいわい、と思っていた矢先に、トライアルイベントの案内が来て、じゃあ行ってみるべ、と。
トライアルイベントのサイトは、こちら。
↓
http://www.trial2010.jp/というわけで、行ってきましたです、トライアルイベント。
ちなみに、トライアルイベントの会場は、北ヤードじゃなくて、福島の堂島リバーフォーラム。
朝から平松市長が来てオープニングイベントとかあったらしいんですが、そーゆーのはパスさせてもらって、昼から行ってきました。
とにかく、トライアルイベントそのものもよくイメージできてなくて、わけわからんままに行ってみたんですが、ざくっと言うと、先端技術の見本市、というのが一番近い表現かと。
ようするに、官と学、コラボでも単体でもいいんですが、なにがしかの先端技術を開発し、近い将来にこんなことが可能になるんですよ〜、といったものをデモンストレーションする場です。
で、肝心なのは、そこに、クリエイターの感性、とりわけ、デザイン面からの考えを盛り込んだものが展開されている、ということです。
ナレッジキャピタルがオープンなった暁には、そうした人たちがオフィスなり研究所なりをそこに構え、交流の場が設けられ、その成果を発表し、実験する場としての商業施設があって…、というのが、ナレッジキャピタルの骨格なんでしょうな。
そこでおもろいものが展開されたら、世界に向けて情報発信できるだろうし、また、そういう場にしていきたい、ということなんやと思います。
では、今回、どういう技術が発表されたのか。
主だったところを、いくつかピックアップ☆
iPadじゃないけれども、流行りのタッチパネルを使った技術が、ソッコーで出てました。
これ、ちょっと見にくいですけど、透明なガラスの衝立にプロジェクターでインターフェイスを投影してます。で、ガラスの衝立にセンサーが仕込んであるんで、タッチパネルになってるんですね。
この写真だと、円形に並べられたサムネイルにタッチすると、グニョ〜ンって、サムネイルが拡大されます。そのウインドウはもちろん、右や左に動かすことができる、と。
似たようなのがもひとつ出品されていて、こちらは透明な衝立じゃなくて、平置きになったタイプのもので、透明じゃないもの。仕組みはおなじで、PCから直結させたプロジェクターを平場のスクリーンに投影させて、平場の面にセンサーが仕込んであるので、やはりタッチパネルになっています。
写真だと、球体を叩いたり弾いたりすると、ヒュ〜って動いていきます。
こうした技術の開発と生産ラインに乗せることと価格をどうするかはまたべつの話になってくるでしょうから、どちらもまだ商品化はされていないんだそうですが、もう、ありとあらゆる施設にニーズがあるんじゃないでしょうかね?
ガラスの衝立は、すぐにでも広告パネルとして使えるだろうし、平場のものは、すぐにでも案内板として使えそうです。
すでに似たようなのがパチンコ屋さんなんかに導入されているらしいのですが、解像度が全然違います。
平場のは、技術的にはどこまでも大きくできるということだったので、じゃあ、体育館いっぱいに敷いて、フットサルのフィールドに見立てて、ヴァーチャルなフットサルやりたい!って言ったら、走りまわるどころか足で踏むことでかかる荷重すら対象外!ですと(笑)タッチパネルが、そんな荷重ではもたんそうです。。。
ま、それはともかくとして、これは明日にでも出現しそうな装置なので、早く日の目を見てほしいもんです。
というか、タッチパネルの出現は、こうしたインタラクティブ性を加速させていくんだと、これ見て実感しましたわ。モバイルの分野に留まらんことは、もう、あたりまえの世界になってます。
続いては、巨大パノラマ。
簡単に言うと、3台のカメラを横並びに並べて撮影したものを、3台のモニターを並べて再生してるだけなんだけれども、3台をシームレスにするのが難しいらしく、そこを簡単にやってしまえる技術が売りなんだそうです。
僕は動画は扱わないけれども、横並びに撮影した静止画像を繋いでパノラマ風にしたりしますが、単純に繋ぐだけじゃなくて、それぞれの写真の両端の変形しているところを直していかないとだめなので、そりゃ大変です。画像ですら大変なのに、それが動画となると、もう、すごすぎて想像できません。
もちろんデジタル放送ならではの技術なので、全体を見たり、ズームインして任意の場所をアップさせたり、ということもできます。
ただ、アスベスト比(縦横比)は、変えられないらしい。
写真のように、オーケストラ全体を見渡せるような映像が、おかげさんで実現してます。なかなかの迫力ですね☆
で、ここでサッカー狂の僕がピンと閃いたのが、これでサッカー中継を見たい!ってことですよ。
通常のテレビ中継だと、ボールのあるところを中心に映像が映されるわけですが、サッカー狂としては、ボールのないところでプレイヤーがどういう動きをしているのかが、とーっても気になるわけです。ボールのないところでの動きが、次の展開の準備になっているので、そこを見ることができると、よりサッカー中継を楽しむことができます。
そんな話をしていたら、もちろんサッカーの映像もあります!と、でも映像のサッカー版を用意してくれました。
すると、だ。
ゴール前でゴチャゴチャやってるところから反対側のがら空きのゴールまで、全体が見渡せるような映像が展開されてるんですよ。すげー!って思わず叫んでしまいましたわ(笑)
これ、デジタル放送が普及した暁には、実施することが技術的には可能なんですが、そもそもテレビが3台ってのもきつい話だし、1台の中に収めちゃうと豆粒みたいになっちゃうし、ということは、光ケーブル使って、PCでの視聴、つまりインターネットテレビに需要があるんじゃないか、ってことになってきますね。
PCでももちろん、モニター3台はきついし、1台の中に収めるんだけれども、PCだとモニターと見る人の距離が近いから、少々ちっさいサイズになっても平気です。
あとは、ネット経由で、あちこちの施設に、モニター3台並べて、いろんなパノラマ映像を放映する、っていうのが、最初の使い道ですかね。小型のパブリックビューイングがいっぱいできそうです。
北ヤードがオープンしたときには、こういうのが、そこかしこに設置されるようになるんでしょうかね? きっと、そういうことなんだと思います。
これはなんだっけな?
あ、カラー解析するソフト。
任意の画像を用意して、その画像で使われている色を解析して抜き出していくソフトですわ。
これを応用すると、たとえば梅田を歩いている人を片っ端から撮影していって、すべての画像を並べて、それぞれの人が着ている服の色を解析したりすると、今、どんな色の服が流行っているのかがわかります。そういう、マーケティングのツールに使えるソフトですね。
ただ、デザイン関係者はphotoshopを通常使っているし、これはphotoshopでできないこともない。まあ、色解析に特化しているぶん、処理速度が速かったり、photoshopにはない特化した機能が付属していたりと、そういうことはあるみたい。
車やアパレルのメーカーさんあたりにニーズがあるかも、ですね。10万円前後って言ってたんで、手が出ない価格ではないです。僕のような個人だと、photoshopでじゅーぶんだけれども(笑)
お次は、これ〜。
通常、プロジェクターを使って、スクリーンになにがしかの映像を投影する場合、スクリーンとプロジェクターのあいだにモノがあると、モノにも映像が映ってしまい、しかもモノの面がフラットではない場合、映像が歪んでしまいます。
それはそれでおもしろい効果を生むから僕は好きなんですが、そうではなくて、モノを光源のように扱うことはできないか、というところから開発された技術が、これです。
この写真が、そう。
プロジェクターで服の売り場をスクリーンに投影してるんですが、あいだにあるマネキンには、売り場の映像が映ってません。
仕組みは、こうです。
まず、マネキンなどの障害物がない状態で、PCに繋いであるプロジェクターでスクリーンに映像を投影します。映像は、ストライプが描かれたものと、円が描かれたもの。そういうものが、PCに用意されています。
で、実際にスクリーンに映し出されたPC内の映像を、プロジェクターの上部に設置されたwebカメラで撮影して、PCに読み込みます。
この時点で、webカメラで読み込んだ映像と、PCからプロジェクターを通じてスクリーンに映し出している映像は、おなじ柄をしている画像です。おなじストライプ、おなじ円形を描いた映像です。webカメラで読み込むことで、おなじものであることを、PCに認識させます。
次に、プロジェクターとスクリーンのあいだに、マネキンを置きます。
すると、PCにある映像はきちんとしたストライプや円形なのに、マネキンを置くことで、実際にスクリーンに映し出される映像は、マネキンにあたっているところだけ、変形します。
これをwebカメラで読み込み、元画像と比べて、変形している部分を解析することで、マネキンの形状を認識します。
あとは、その変形部分にマスクをかけて、プロジェクターから投影される映像のうち、マネキン部分だけがくりぬかれたような映像を投影している、というわけです。
なので、マネキンには映像は映らず、光源からの光だけがダイレクトにあたるようになるので、そこだけが白く光って、光源のようになる、というわけ。
実際に見てみると、ありそうでなかった、妙に不思議な空間が現出して、なかなかおもしろいです。
価格面の折り合い等で商品化はまだ先になりそうなのですが、それこそデモンストレーションに使うのにはうってつけの装置かと。
これは、iPad。…じゃなくて、や、iPadなのですが、そこじゃなくて、中の映像です。
梅田の地下街が映ってます。でも、人が映ってません。
これはなにも、深夜や早朝に撮影したんじゃないです。
まず、普通の時間に、一定時間、固定カメラで撮影した映像を用意します。
その映像をコマ割りすると、場所によっては、人が映っているところと人が映っていないところがあるわけです。Aの写真だと柱に人がいて、柱が見えない。Bの写真だと柱は見えるけれども、壁に人が立っていて壁が見えない、といった具合です。
で、すべての写真の人物だけを切り抜いて、重ねると、人がまったくいない風景の写真をつくることができます。もちろん、人力で切り抜いてるんじゃなくて、人物を認識させ、自動で切り抜きをし、すべての写真を重ねて1枚の写真にしちゃう、と、この作業をオートマチックにする技術が、売りです。
原理さえわかってしまえば、僕が通常駆使している技術の応用ですから、できるんだろうな、ということは、わかります。肝は、オートマ化することで、生産性が格段に高い、ということなんでしょうね。
まあ、でも、生産性が高いです、というだけで、そう目新しい技術ではないようにも思うのですが、副次的にすごかったのは、この技術を使って、実際に梅田の地下街をすべて網羅した絵画像をつくっているとのことで、それ、ちょっとわくわくするじゃないですか!
これをiPad等のデバイスに読み込むと、人がまったくいないgoogleストリートビューが、梅田の地下街限定で見れちゃう、ということです。
もちろんエアタグをつけることができるんで、セカイカメラ的な使い方ができますな。
しかもストリートビューとおなじく、360度パノラマ。というよりも、ストリートビューですっぽり抜け落ちている地下街や屋内といったところで威力を発揮する、わりとニッチな戦略でやってはるようです。
立命館大学とパナソニックが共同でこのプロジェクトを進めていて、すでにサイトもあります。
7月には、梅田の地下街全域をカバーしたものを発表するんだとか。
技術云々よりも、コンテンツにワクワクしてしまった、この場では珍しい例(笑)
http://umechika.ubi.cs.ritsumei.ac.jp/プラグインをDLしてブラウザにインストールしなければダメみたいで、ちょっとめんどくさいですが、興味のある人はどうぞ☆
これは、見た目にはごくごく普通のマルチスクリーン。
ただし、解像度がとんでもないらしいです。
狩野永徳の襖絵を映したデモなんかがあるらしいんですが、時間制になっていて、僕がいたときは、デモはなし。
でも、再現性がすごいらしいです。
最後、個人的に一番スゲー!と思ったのが、これ。
これ、写真やテキストで伝わるんだろか?
要するに、視覚、聴覚、触覚、嗅覚をバーチャル的に再現するマシンですわ。
端から見ているぶんには、まーったくおもしろくないマシンです。
まず、3Dメガネを、覗いてみます。
すると、写真の上のモニターみたいなところに映っている映像が下の鏡面部分に反射したものが、3Dメガネのなかに映ってます。
映っているデモ映像は、こんな映像です。3Dメガネで覗いたら、そこに映ってる映像。風船が3個映ってます。
これが、「アバター」よろしく、3D映像になってるんで、立体感のある映像になってます。
次に、この装置の鏡面の下から伸びているアームのようなものの先についているタッチペンのようなものを握って、風船をツンツンします。
実際には風船はないのだけれども、3Dメガネをかけた状態だと、風船もペンも映っていて、ツンツンしている映像が出てます。
で、これが映像だけじゃなくて、感触がちゃんとあるんですね。それも、ちゃーんと、風船をツンツンしている感触が!風船の表面をタッチペンでツーッと滑らせると、ちゃんと引っかかりもあります。ペンと装置本体を繋いでいるアームが、そのように微妙な負荷をかけて、あたかも風船に触れているように感じさせるわけです。
ほいで、風船をペンで思いっきり突っつくと、風船が割れます。で、じつはヘッドホンも装着してるんで、割れると、パン!という破裂音がちゃんとします。
さらにさらに、どこにノズルがあるのかわかんないけど、さわやかな香りが噴出されて、風船が割れると、風船の中にはさわやかな香りが充填されていたのか!と、なります。
なので、視覚、聴覚、触覚、嗅覚のすべてをバーチャルで体験できるマシン、というになります。
この装置のバーチャル度のすごさを、少し書いておきます。
じつは僕は、右目が斜視で、右目と左目で焦点を合わせてひとつの像をつくる、という通常の視覚を持っていません。
右目と左目で焦点が合わないので、右目で見た映像と左目で見た映像がべつべつに脳に送られて、常に2枚の映像を見ています。
斜視の人はたいていがそうなのですが(日常どころかあらゆる生活で困ることがまったくないので、障害者では、もちろんない)、そういう人は、「アバター」を見ても、3D映像を見ても、じつは立体的に見えないんですね。単に、2枚の映像が見えるだけで、かえってうっとおしい(笑)
この装置もそういう意味ではダメなはずなんですが、でも、視覚だけでなく、触覚、聴覚、嗅覚と4つの感覚をバーチャルに体験させることで、僕のような人間でも、ちゃんと立体的に見えるんですね。
見た目が美味そうだったら、美味さが倍増するのとおなじ理屈で、その意味でのバーチャル度は、この装置はめちゃくちゃ高いです。
現実には滅多にできない体験をバーチャルに体験させる、教育や訓練向けに使える装置なのなのだろうな、と思いましたです。
惜しむらくはタッチペンではなく、手を使って、手にダイレクトに触感が伝わると、もっともっと使い道が出てくるんだと思います。センサーがついたグローブを使うとか、やりようはまだまだあると思うんですね。
それと、今の状態だと、どっかのマッドサイエンティストがつくったみたいな無骨さが、ちょっと敬遠されるかもしれません(笑)この姿を見ていると、まだまだ商品ではなくて、実験装置といった趣です。
や、でも、これは未来を感じさせるというか、ドラえもんを感じさせる装置でしたわ〜。
とまあ、走り書きで書いたわりには長くなりましたが、こんなかんじです。
ブースがあって、それこそハイテクの見本市みたいな趣なんですが、こういう技術をつくるひとたちが北ヤードの一角に一堂に集まって、トライ&エラーの段階から、近隣の商業施設や公共スペースを使ってデモンストレーションやって、情報発信していくというのがナレッジキャピタルということなのか、と、イメージがかなり湧いてきました。
これ以外にも討論会なんかもやってたんですが、それについてはさすがに書く気力が(笑)
トライアルプロジェクトは、6月11日までやってます〜。
大阪・北ヤード ナレッジキャピタル トライアル2010会期)6月10日、11日
会場)大阪市福島区福島1-1-17 堂島リバーフォーラム
HP
http://www.trial2010.jp/北ヤード ナレッジキャピタル大阪市北区大深町
http://kita-yard.com/