インタラクティブ東京2007 と IVRC 東京予選大会

先週末の土日に日本科学未来館でインタラクティブ東京と IVRC 東京予選大会がありました。両方共にインタラクティブ技術を使った面白いものに実際に触れるイベントです。IVRC のほうは、学生によるバーチャルリアリティコンテストですね。今年も楽しい作品がずらりと並んでいました。

INSIDE に小野さんの記事が載ったことですし、忘れないうちに自分の感想も書いておきます。去年の iTokyo の感想はこちら

  • MABOROSHI
    • 一見、紫一色のスクリーンですが、よ〜く見ると、瞬きした瞬間などに人の影が見え隠れする、という作品です。
    • 記事に補足すると、DLP プロジェクタの60fpsのうち、背景部分には常に紫を、人影の部分には赤と青を毎フレーム交互に出力しています。これによって、普段は色が混ざって見えませんが、瞬きや目の前で手を振るなどして、時間的に非連続になった瞬間に像が見えたりします。
    • 60fpsより落とすとはっきり知覚できてしまうようですね。120fpsなどは機材が無くて試していないようでした。輝度が高いと分かってしまうので、わざと少し輝度を落としているとのこと。
    • 簡単な原理で面白い効果だと感じました。紫は印象が良くないので、もう少し気持ちいい色で実現できれば応用も広がりそうですね。てんかんが心配ですが……。
  • HOP AMP
    • 透けて見えるトランポリンの下に風景が映し出されており、その上ではねると、何百倍にも誇張されて跳躍した気分になれる、という作品です。
    • 非常にシンプルではありますが、一番面白かった作品でした。
    • 強い体感を視覚で誇張する、という手法はやっぱり効果的ですね。
    • 最近流行の風による感覚提示を使うともっと面白いかもしれません。
    • ただ、会場が狭かったこともあり、事故がないかは心配でした。
  • 風景バーテンダー
    • 液体の入った瓶が棚に並んでおり、それを自由にシェイカーに入れて振ると、成分によってさまざまな地形ができあがるというもの。
    • 棚に仕掛けがあり、それぞれの瓶の重さを計ることによって、シェイカーに入れられた液体の種類と量を計算します。
    • 岩とか海とか空などといった成分を、液体という形で可視化して混ぜさせるという発想が面白かったです。
    • シェイカーを振って、グラスに注いで、定められた位置に置くと結果が表示される、という全体の流れも綺麗にまとまっていました。

ここまで IVRC。以下は iTokyo。iTokyo のほうは、SIGGRAPH2007 の Emerging Technology に出展した作品も多かったようです。

  • inter-glow
    • ミニチュアの食卓の上にライトが3〜4本ぶら下がっており、標準状態では食卓を囲んだ椅子の上にライトが当たっています。そのライトを持って、食卓を照らすと、対応する家族が話し出す、という作品です。
    • ポイントは、複数のライトを同時に食卓に当てると、その人たち同士の会話が流れるというところ。
    • 各ライトは異なる周期で明滅しており、同時に当たっても何が当たっているのか判別できるそうです。
    • スポットライトを当てると会話が始まる、という感覚が面白く感じました。
  • 目が動いたときだけ見ることができる情報提示装置
    • 名前の通り、視線を動かした瞬間に像が見えるという不気味な提示装置です。
    • 簡単に言えば、ポケモーションのやたら輝度が高くなったものが据え付けてあるだけです。
    • 1mほどもあるLEDアレイの発光が高速に変化しており、視線がその上を左右に横切る瞬間に、残像で空中に像を結びます。
    • 展示では巨大な目が見えるようになっていました……。
    • そりゃ、人間は本能的に人の目に対する反応はいいので、効果的ではあるんでしょうが、視線を動かすたびに空中に目が浮き上がるのは不気味でした。
  • ビデオエージェント
    • 仮想空間でビデオ映像から抽出して作られたエージェントが暮らしているというコンテンツ。
    • エージェントにはオブジェクトを渡したり、部屋を火事にしたりといったインタラクションができます。
    • まぁ、それだけならよくありますが、ポイントはビデオ映像からエージェントを作るというところのようです。
    • 撮影からデータに落とすところまで、半日くらいでできるとのこと。専門知識がなくても簡単に作れそうです。
    • もっとも、実写の絵をサイバースペースで動かすという需要がどこらへんにあるかは、よく見極めが必要ですね。
    • あとは、インタラクションのデザインにもう少し気を遣ってもらえるといいかなぁ、と。箱庭を触っている感がもう少しきちんと欲しいところ。
  • TORSO
    • テレなんたら系の研究の一つで、遠隔地の今の風景を見回すことのできるデバイスです。
    • VR関係では有名な、東大の舘研究室の研究ですね。
    • HMDを付けると、ロボットが見た風景が映し出されています。頭を動かすと、ロボット(アーム+カメラ)もその通りに動き、あたかもそこにいるかのように周りを見渡すことができます。
    • 腰を使って頭を水平移動させても追従するので、非常に自然でした。
    • 現在の遅延は表示遅延などで30ms程度とおっしゃっていたような気がします。ロボットの追従はかなり早かったです。
    • 微妙に遅れるので、あとはこれをどこまで短くできるかですね。ある程度は解像度とのトレードオフとのこと。
    • ここまで来ているんだ、とちょっと感動。
  • GravityGrabber
    • 小さな箱の中にボールが入っていて壁とぶつかっているような感覚を提示するための、指に付けるデバイスです。
    • 人差し指と親指の腹に、細いベルトを巻いて、そのベルトの引っ張り感覚で、擬似的に感覚を提示します。
    • あまり他で見たことのない提示方法で、新鮮でした。
    • 腕に重さがかかるわけではなく、あくまでも指の腹にかかっている引っ張り度合いで重さや激力を提示するだけですので、イメージCGなどが見えていないと少し辛い感じですね。
  • Tempo Primo
    • 1個ないし4個のボタンをリズム良く押し続けていると、そのリズムに乗った音楽がヘッドフォンから流れるという作品です。
    • あまり時間が無くてじっくりさわれなかったのですが、ボタンを押し続けたら音楽が流れるというだけで嬉しいですね。
  • String Walker
    • サンダルを四方からワイヤーで強力に引っ張ることで、足の位置を強制的に調整して、同じ場所で歩き続けることができる装置です。
    • 歩行感覚の提示装置というジャンルがあり、その一つということですね。
    • 足を踏み出すと、軸足が反対側に引っ張られるというのはなかなか危ないです。
    • 手すりのおかげで、尻餅をついたりした人は、今のところは0とのこと。
    • すごい力のワイヤーで引っ張られるわけですから、暴走すると危険。手すりの脇には緊急停止ボタンも。
    • もっとも、一定量以上の巻き取りがあったら止まるような安全機構を入れたおかげで、最近は緊急停止ボタンの活躍はないそうです。
    • 歩行感覚の提示装置は、いままで試したものはどれも転けそうになったので、そもそもアイデアに無理がありそうな気が……。

もっとたくさんの展示があったのですが、印象が強いのはこんなところでしょうか。展示一覧は http://interactivetokyo.jp/2007/