2004 [8th] Japan Media Arts Festival Device Art Symposium "How We Create Media Art Works"
Presentation
by Hiroo Iwata


平成16年度(第8回)文化庁メディア芸術祭
デバイスアートシンポジウム「メディアアートはこう作る!」


プレゼンテーション:岩田洋夫
2005年3月3日@東京都写真美術館

草原:では、ディスカッションはまた後で続けることにしまして、それでは時間があるうちに、それぞれのプレゼンテーションに移りたいと思います。まず最初に、真面目な情報工学の先生でありながら、《SIGGRAPH》では毎年、最もクレイジーなプロジェクトを出していると言われている、岩田さんの方からお願いします。


2.1■岩田洋夫:プレゼンテーション

岩田:私はバーチャル・リアリティの研究を長年やってきていまして、その中で、主に触覚ですね。モノに触れた感覚をどうやって人工的に作ろうかということを長年研究してきました。

 それで、ここに持ってきたのが最近の研究成果ですが、触覚の中で一番難しいと言われるのが、実は「歯ごたえ」なのですね。その「モノを噛んだ」時にどんな歯ごたえがするかを研究しているのがコレです。[スクリーン]【図1】【図1】クリックして拡大ちょっと小さいのですが、こういう装置を噛むと、あたかもそこに食品があるかのような歯ごたえが出ます。ちょっとやってみてください。動きがわかりますか? こういうリンク機構が動いて、あたかもここに林檎や煎餅があるかのごとき力を出す。そういうプログラムをコンピュータは一生懸命計算しているわけです。現実に色々な食べ物を噛んでみて、そのデータを取って、それをマシンで再現する……というようなこと。一種の究極のバーチャル・リアリティですね。味覚というのは、味だけではなくて、歯ごたえとか色々な感覚がいっぺんに入ってくるわけで、こういう装置を作ったりしています。

 ところが、例えばこういう装置を作って研究発表をする時に、論文で書いても全然つまらないわけです。ところがこれを実際に噛んでもらうと、みんな爆笑する。そのくらいこれは面白いわけです。その面白さをどうやって伝えるかという発表形態を考えていくと、やはり実演しかない。色々な人に体験してもらって、噛むたびに爆笑してもらって、それがまさに最適な発表であるというわけです。

 それを突き詰めていくと、アート作品というのは、色々な人が展示会場を訪れて、様々な体験をしますよね。そうした工学技術の社会還元としても、こういった実演形式は非常にいいのではないか……というわけで私は、90年代の中盤から、ある種の芸術活動を開始しました。


 それで最初に作った作品『クロスアクティブ・システム(Cross-active System)』【図2】【図2】クリックして拡大が、1996年の《Ars Electronica》で入選しました。まずはその時の映像をご覧ください。[スクリーン]これはインタラクティブではなくてクロスアクティブというシステムで、こういうモーションベースと、それから没入映像と、センサー付きのカメラを使います。それらを組み合わせて何ができるか? センサー付きのカメラを持っている人の手の中に、あたかももう一人の人が座って踊らされている感じになります。これも実際に体験すると爆笑になるのですが、要するにセンサー付きのカメラと連動して、モーションベースで動きます。この上に乗っかっている人が何を体験するかというと、ちょうどこの持っている人の手の先で弄ばれているような感じになります。ちょうど見ている映像はこんな感じ[スクリーン]ですね。指先に乗っかって、踊らされているような感じになります。インタラクティブなシステムだったら、自分の入力がそのまま自分に返ってくるのですが、これはクロスアクティブといって、ある他人の入力が自分の感覚になるという、そういう不思議な体験です。実際にこれを展示していると、色々なことをするわけです。ズボンの中にカメラを入れたり、そういう奇抜な発想をする人もたくさんいました。これも一種の「プレイフルネス」の例ではないかというふうに思っています。


 その次に《Ars Electronica》に出品した作品が、この『フローティング・アイ(Floating Eye)』【図3】【図3】クリックして拡大です。今そこで展示もしているのですが、全周映像のディスプレイです。普通、全周映像と言ったら、プラネタリウムのような劇場に行って見るのが普通ですが、これは人がヘルメット状のディスプレイを被って見るわけです。この黒い球がスクリーンで、中にプロジェクターがあって、特殊な光学系を使って内側に全周映像が出るのです。被っている彼は、現実世界は見えなくて、中に投影された映像だけが見えるわけですが、その中に映す映像として、カメラを飛行船にくっつけて空を飛ばすという作品を作りました。[スクリーン]

 スクリーンに映す映像をどう撮るかといいますと、凸面鏡に反射させて、そこに写り込んだ映像を見るわけです。このカメラヘッドがミニ気球に乗っかっていて、空を飛ぶことができます。原理としては、この凸面鏡を使って拡散させることによって、電球から映像が出るみたいな感じで、全周映像が出るわけです。カメラヘッドが撮った、上から見た映像がここに映ります。これは外でやると面白いのですが、これを被って、自分の手で飛行船を持ちます。まるで凧揚げみたいに、飛行船を上げるわけです。すると何が起こるかというと、自分の目が頭を離れて、スーッと空を飛んでいくようになる。ちょうどこんな絵が見えるわけです。空から自分の姿を見ながら、凧揚げをしているみたいに歩く。つまり「身体から目だけ離れてみたらこんな感じになる」ということをテーマにした作品です。

 そうは言っても、風も吹くわけです。そうなると、こういうふうになって(会場から笑い声)中で見ている人は、自分の身体は止まっているのだけれど、目だけは風で揺すられるという、これも一種の非日常的な楽しい体験です。中で見ている人はたまらないですが……。


 次に、これが最近作った作品なのですが、この床の上に『ロボットタイル』【図4】【図4】クリックして拡大【図5】【図5】クリックして拡大があります。ちょっと映像をお見せしましょう。[スクリーン]これはただの鉄板なのですが、こんな感じで前後左右に動きます。これ自体は、ただの搬送ロボットとして開発されたもので、例えば工場内でモノを乗せて運ぶという目的で開発されたものですが、これを使うと、その場でバーチャルな世界を歩いて見て回る体験ができます。これは一枚だけではつまらないのですが、こいつを何枚かつなげると、無限に続く床の中を歩く体験ができます。どういう感じかというのを、ビデオでお見せしましょう。[スクリーン]  原理はCGなのですが、こういう感じで、要するに二次元のトコロテンをやるわけですね。歩き去った後ろの床はバッと戻ってきて、前に待ち構えていてくれるから、落っこちなくて歩ける。現実のマシンだとそんなに早くは進めなくて、こんな感じになって(会場から笑い声)、方向を変えるとそっちの方に待ち構えて、ちょうど過ぎ去ったあとの床が前に回り込む。これを高度にすると、要するに任意のどちらの方向に歩いていっても、必ずそちらの方に床が待っていて、その場所に居ながらにして、好きなだけ好きな方向に歩ける。

 実はこれは「ロコモーション・インターフェイス(Locomotion Interface)」という、実際に歩く体験をバーチャルな世界でいかに再現するかという課題でして、バーチャル・リアリティの研究領域においては非常に最先端のテーマで、技術的にも非常に難しいです。そのソリューションとして考えたのが、この『ロボットタイル』という作品で、言わばこれは技術実証のプロトタイプなのですが、アーティスト側から見ると、それがすごく面白いらしい。ただの鉄板が有機的に動くあたりが結果的に楽しい見かけになったわけですが、もともとは純粋な研究成果です。


 というわけで、こうした研究を色々とやってきて、ある部分は芸術作品として発表してきたわけですが、何かわけの分からない自分の行動を色々と考え、このデバイスアートという概念でまとめてみると、すごくしっくりと来る感じがしたわけです。それはつい最近、発見したわけですが……それでこういう概念を提案し、色々な人と議論をしていくうちに、これはけっこう重要ではないか、ということで、本日こういうシンポジウムが開かれたわけです。どうもありがとうございました。(拍手)


草原:この『ロボットタイル』は去年の《SIGGRAPH》でも一番評判でしたね。たしかにやってみると、自分の背後の、一番最後の『ロボットタイル』が必死に回って来るさまがいじらしいのですよね。それで歩く人がヒョッと向きを変えたりすると、慌ててそちらの方に来る様子も、何か生き物みたいな感じさえしてしまう。またその辺り、後でディスカッションできればと思うのですが……では次にクワクボさん、お願いします。