朱鷺の杜(IBIS)ブログ

情報論的学習理論(IBIS)に関する管理人の独断と偏見に満ちた意見

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

NIPS2009報告

もうしばらく前のことになってしまったのですが昨年末にNIPS2009に参加してきたので簡単に報告します.

バンクーバーやウィスラーはオリンピック前ということでそれなりに盛り上がっていました.
時差ボケの体にはバンクーバーからウィスラーまでのバスが結構きついのですが,今回は
福水さんと話をしながらだったのでそんなにきつくは感じませんでした.
ただ,スキーはしなかったので何のためにウィスラーに行ったのかという感じもします.
知り合いの人でもスキーはしないという人が多いです.

なお,再来年はヨーロッパで開催,その後アメリカ(やはりスキーリゾートらしい)でやるという予定のようです.

あと,NIPS は朝食やバンケットも込みなのですが,最近はそれだとその分が出張費からばんばん引かれてしまうので,
バンケットは仕方ないとして朝食はなしにしてもらえると助かります(あるいは別料金にするか).

会議は相変わらず朝早くから深夜までぶっ通しで,何回行っても空港とホテルの往復のみで,
バンクーバーの地理には詳しくなりません. ホテル近くのレストランの情報はぼちぼち増えていますが...

本会議で目立っていたのはスパースがらみの話で,どこを切ってもスパースでぱっと見には違いがよくわかりません.
スパースが流行っている背景には,最適化分野の話がどんどん学習関係に入り込んできたからというのがあると
思います.

ワークショップでも最適化のセッションが盛況でした.
いろいろな話があったのですが,単純だけど印象深い話を一つだけ書いておきます.

最適化で最適解から ε だけずれた解を求めるための計算量(の上界なり下界)が評価できている問題の
クラスがあります. 一方学習理論では有限サンプルからの学習で,汎化誤差のオーダーは 1/n とか
1/√n とかで評価されています. これらを合わせて考えると,汎化誤差で評価されているより上のオーダーで
最適化をがんばってもあまり意味がないのでちょうどその境目くらいの近似計算で止めておけばよい
という話になります. つまり計算量と近似精度のトレードオフを統計的な観点から決めるということです.

学習の分野というのは統計と計算の接点のような分野ですから上の話はそれを象徴するようなお話です.
昔からこんな話はあるだろうなと思っていたのですが,やはり最適化の専門の人が近くにいないと具体的に
話を作るのは難しいですね.

ノンパラベイズもまだまだ盛り上がっているのですが,やはり計算量をどうするという話になり,Michael Jordan
が上の話を持ち出してノンパラベイズもこういう観点が必要かもしれないねということを指摘していました.

最後に,NIPS とは直接関係ないのですが(岩波本にも出てくる)Locally linear embedding などで有名な
Sam Roweis 氏が37歳の若さでお亡くなりになりました.
個人的には面識はなく,ただ会議などで見かけただけですが,すごくアクティブな研究者という印象があります.
また,NIPS のホームページでは,ご家族のためのメモリアルファンドの寄付を募っています.
その衝撃的な死はいろいろな意味で現代社会の抱えている問題点を反映しており,考えさせられることも多い
できごとですが,それについて書くのはこのブログの主旨とはずれますので報告にとどめます.
ご冥福をお祈りします.
スポンサーサイト

コメント

コメントの投稿


管理者にだけ表示を許可する

トラックバック

トラックバックURLはこちら
http://ibisforest.blog4.fc2.com/tb.php/105-93f955ba
この記事にトラックバックする(FC2ブログユーザー)

お・お・お!!

お花の事ならなんでもお任せ(@@)

  • 2010/02/03(水) 16:24:20 |
  • 花ギフト館のブログ

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。