2005-02-04 (金)
- 天気:曇り
- 「WWW上の知的情報処理技術の最新動向」の講習会見に行けなかった
*試験@アルゴリズムとデータ構造
なぜか,6時過ぎにMeshiに起こされて,勉強をさせられる.というか,試験勉強やる気無いのに…….ギリギリまで寝て睡眠を十分とったほうが,絶対にいい点が取れると言っているのに聞いてもらえない.
とりあえず,頭の中でe^πとπ^eの大きさを比べたりして時間をつぶす.そのあと,未来のインターネットについて話をしたり.木製にサーバを置いたら法律は適用されるのかとか,間に太陽があった場合は他の惑星を経由しないといけないから遅延が大きくなるとか.pingで応答時間を測ると,2時間後に応答が返ってくるのが未来のインターネットかと思うと,あまり嬉しくないかも.データをキャッシュするサーバを用意するしか無いという結論に.
あと,光ファイバーなんか屈折率が高いので,スループットは良くても遅延が大きくなるということで,ニュートリノ通信の話も.地球の裏側との通信も最短距離で結べます.送受信ともに装置が大きくなるのが欠点.特に受信側の装置の小型化は普通の物質では絶望的です(飛んでくる方向と位置が正確にわかるなら,細くはできるか…).
試験は……やっぱり勉強をするまでも無いような問題.私の貴重な睡眠時間を返してください.
*あとは
あとは,信号処理とオートマトンと確率統計か.信号処理は,最終試験は40点中12点とればOkというメールを頂いたので,これは勉強しなくてもOkという意味でしょう.
気になるのは,殆ど一緒にやったはずのTGCHの方が宿題の平均点が微妙に高いことでしょうか.
*動画デバイスのインターフェイス
USBカメラやTVキャプチャーボードとかの動画を扱う,統一されたインターフェイスが無いものかと調べてたら,video4linuxというのがあるらしい.これって,BSDでも使えるかな.FreeBSDでもffmpegを使ってライブストリーミング配信できるかも.
/dev/*にデバイスを用意するのは,普通のプロセスからは無理なのかなぁ.普通の名前付きパイプじゃ駄目そうだし.ドライバ書かなきゃだめかな.
*FreeBSDでカメラ画像をライブ配信
とりあえず,ports/multimedia/ffmpegを入れてみる.rawvideoで無圧縮のデータを読み込めそう.
USBカメラから画像を取ってくるプログラムをいじって,標準出力にYUV420Pなデータを吐き出すようにする.ffmpegでmpegやasfファイルが作れることを確認したら,ffserverの設定をしてライブ配信に挑戦.
ffmepgに-pix_fmtなんてオプションがあったので,rgb24にしてみる….なんか動いちゃいました.折角YUV420Pに変換するコードとかも書いたのに.
Webカメラ@kstmで公開中です.asf形式なので,Windows Media Playerなどで接続してください.問題は,CPUを5%も占有していることかな…….