月別アーカイブ: 2007年11月

初講義

生まれて初めて講義をしまんた。メディア起業論ってやつ。
起業したことないのに、起業について論じるという。

せっかくの生まれて初めてネタなので、被せていこうと思って、生まれて初めてKeynoteを使ってプレゼンテーションしてみた。ジョブズみたいに「ブーン!!」とかやりたかったんだけど、無理。そもそもプレゼンテーション自体が超久しぶりだったので、えと大先生のこいつを参考にしながら、やってみた。

話の内容は主にwebAGORAと図書館について。「べつにやらなくてもいいことをやる」という観点から、大きな組織の中に、これまでなかった別の組織を立ち上げて母体をハックすることについて考えてみまんた。つたないプレゼンテーションでごめんなさい>みなさま。

告知

てなわけで、CET07で展示します(ようやく事前に告知できた!)。

http://www.centraleasttokyo.com/07/

パーマリンク的なアレがないのですが、上記リンクで公式サイトに行った後、左のイベント一覧のどこかに詳細があります。「Private Public Access」ってやつ。人生で2度目の映像作品です。まだ、出来てないけど。ちなみに、1度目は3、4年くらい前に市川さんがフランスかどっかで参加したシンポジウムのための映像ですわ。

東京Z大学

そういや、こないだ展覧会の準備で東京Z大学こと、東京造形大学にも行ってきたんだった。
11月1日だけど。ブログに記すの遅。

ていうか、みんな造形大のことを東京Z大学(略してZ大)って言っているんだとずっと思っていたけど、どうやらそれは自分の周り(Z大OB含)だけらしい。11月11日現在、Googleで検索しても4件しか引っかからない。ぞしび(女子美のこと)もそうだけど、意外と使われていないのね。Z大学。

いやはや、それにしても東京Z大学である(小池先生のブログ風に)。

それで、造形大には何度か訪れているのだけど、今回、磯崎新が作ったうねうねした建物に初めて入ってみた。メディアデザイン専攻が入っているところ。
この建物は廊下の部分がオープンスペースになっており、たまびの情報デザイン芸術学棟と同じように、学生の制作場所として機能している。しかし、たまびとは違って、建物の曲線が織りなす有機性と、コンクリのソリッドな素材感、学生の制作風景や放置された材料、制作物が醸し出す混沌が絡み合って、かなり泥臭いクリエイティビティが伝わってくる。すごくいい。
ついでにアトリエにもお邪魔させてもらったんだけど、天井も高くて、全面窓で開放的(目の前が森なので、それほど明るくはない)。普段、あまり使う人もいないらしいので、わりと自由に使っている模様。うらやましい。

あと、クラブ棟が相変わらず凄まじかった。自分がこどもの頃までは東京の郊外にもああいう長屋というか、バラックみたいな建物はあったような気がする。21世紀初頭でもお目にかかれるとは。上野毛キャンパスのB棟よりも凄い。震度2で崩壊するんじゃなかろうか。あれも磯崎アトリエの設計だったら、かなりの反建築。

まだまだ話は尽きない。たまに訪れる他の大学は新鮮で良いです。

先端

久しぶりに取手にある茨城芸術大学……もとい、東京藝術大学先端芸術表現科に行ってきた。ていうか、行ったの火曜日(6日)だけど。相変わらずののんびりとしたところ。気分転換には持って来いです。ついでにIAMAS行きたい。

ところで、橋本から取手に行くときは、文庫で言ったら2冊は必要。
今回、竹井正和の「きょう、反比例」を持っていったんだけど、行きの途中で読み終わってしまった。帰り超ヒマ。「ゲーテル、エッシャー、バッハ」持ってけば良かった。

DirectShow と Windows Media Encoder SDK でビデオデバイス共有とかメモ

今回、途中まで新しく小さなものを作っていたのだけど、その制作の技術的なメモ。

毎度毎度、制作のたびにTVのチューナーを買うのが面倒なので、たとえば、LANの中で、テレビの映像と音声を共有できると、楽だよな〜ということでさっそく考えてみた。(TVのチューナーに限らずとも、LAN内のコンピュータAからコンピュータBに接続されたWEBカムの映像を取得する方法と考えてもおk)

方法としてはとても簡単で、チューナーやカメラなどのビデオデバイスが接続されたコンピュータをストリーミング配信サーバーにして、ビデオデバイスの映像と音声をプル型で配信する。そして、そのコンピュータにLAN内(グローバルIPがあればLAN外でもいいけど)の別のコンピュータからアクセスして、DirectShowでストリーミングデータを取得してグラフを構築するというもの。

一番お手軽なのは、配信サーバーとなるコンピュータにWindows Media Encoder(WME)とかVNCとかを入れてプル型の配信サーバーに仕立てるというものだけど、自分の用途としては、少なくとも7つのチューナーの映像・音声を同時に配信する必要があったため、Windows Media Encoder SDKをつかってカスタマイズされたアプリケーションを作った。

作るには、SDKに添付されているヘルプにのっている情報が一番有益なので、とくに無いんですけど、WME SDK(とWME)の困ったところは、自分が使っている「Dual-TV」のような、独自のサウンドデバイスドライバを持たず、そのデバイスが使用しているPCI経由でサウンドを出力するタイプのデバイスには対応していないという点。つまり、自分の場合、映像は配信できても、音は配信できないという。

それで、考えたのは、WMEはこの際あきらめて、おなじくプル型の配信に対応したWindows Media Format SDKをDirectShowと組み合わせて使うというもの。しかし、こいつは全世界に使用している人間が異様に少ないばかりか、添付のヘルプファイルにもサンプルコードがほぼ皆無という鬼畜なSDKなので(無論ヘルプファイルは全て英語)、理解するのに非常な困難が伴う。結局、ストリーミング用のポートを開くところまではこぎ着けたが、デバイスが吐き出す映像のバッファや、音声のバッファをうまいこと書き出すに至れず、あえなくそこでタイムアウトとなった。

というわけで現在は、映像はWMEで配信し、音声は非圧縮でUDPで配信するというコードを書いている。なんか激しく非効率なんだけど、動けばいいよね。(というか、よほどのことが無い限りWME+DirectShowで十分だと思うので、「なんでOSCで映像や音声のデータ飛ばせねーんだよクソが」とお門違いな怒りを発散させている情報芸術コースの学生諸君はWME SDKとDirectShowを使ってみるべきだと思う。)