朱鷺の杜(IBIS)ブログ

情報論的学習理論(IBIS)に関する管理人の独断と偏見に満ちた意見

スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

ibis2006報告(4)

3日目のオーガナイズドセッションは複雑ネットワーク. 以前に増田・今野「複雑ネットワークの科学」は読んでいたのと,疲れていたので朝一の大久保先生の講演は聞けなかったのですが,後でほかの人に聞いたら結構よかったと言っていたのでがんばって起きればよかったかも.

2番目の相馬先生は経済物理ということで,基本的に「べき則を満たす経済指標や物理モデルを見つける」ことが主眼のようでした.それにしても会場にいたほとんどが当てはまらない「年収2千万円以上の人たち」の従うべき則っていったい...などという俗な感想はよくないですね.

しかし,スケールフリーありきみたいなのっていいんでしょうか. 世の中そうなっているから,何かいいに違いないということかもしれませんが. 最後のオーガナイザの林先生が田中利幸さんとの質疑の中で,スケールフリーありきではなく,何らかの最適性をもつネットワークモデルみたいな方向の研究も出てきつつあるみたいなので,これからいろいろ出てくることが期待されます.

しかしまあ,あんまり「役に立つ」ということを追求するのも研究推進上はよくないですね. 「できること」「おもしろいこと」「役に立つこと」の3つのベクトルはそれぞれ違う方向を向いていることが普通で,時々近づいてくるわけですね. 純粋数学なんかは完全に前二つのみに重みがありますが,普通の研究分野はこれらが微妙にバランスしている状態がいいのだと思います.

おっと,ずいぶん横道にそれました. 午後のポスター発表は新幹線の時間が押していたのでプレビューだけ聞いた感想です. 二日目は統計物理関係が中心で,CDMA とか誤り訂正符号とかの符号化の話などがありました.

まず私としては萩原さんの話が非常にわかりやすくて,バイアス項が真のパラメータ数に依存してしまうところを,縮小推定量を使えばそれが解決できるという話でした. ただ萩原さんは,そのままモデル選択にはうまく使えないと言っていました.

CDMA は樺島・田中(利)・岡田の3先生を中心にバリバリ音を立てて進んでいますね. こっちがロバに乗ってポックリポックリゆったり行くところを,ガーッと馬車で行く感じでしょうか. そのほかにも杉山さんや三好先生,渡辺研の面々など IBIS の常連の先生方もおもしろい発表をされていますが,あまり内容を理解できていないのでここではフォローできません. 個人的には IBIS に毎年のように出されている岩手大の西山先生が特異点の話を出されているのが目を引きました. 制御の観点から特異点を切るとどうなるんでしょうか. あとは計数の同級生だった赤間君が計算論的学習理論の話を出していましたが,最近この辺も不勉強でちょっと中身はよくわかっていません.

というわけで今年の IBIS も盛況のうちに終わりました.
私の個人的な感想としては,オーガナイズドセッションより,もうちょっと研究発表に重みのあるマニアックな会議でもよかったのではないかと思いました. ただ,それだと人が集まらないかもしれません. オーガナイズドセッションも渡辺先生から再三「易しく易しく」という指導が入ったため,本当に易しいものになりましたが,逆に易しすぎたのでは?という感想も聞かれ,バランスが難しいなあと思いました.
理想的には以前のような合宿形式で夜遅くまで議論したいというのもありますが,世話をする人が大変すぎるのでしょうね.
スポンサーサイト

テーマ:展示会、イベントの情報 - ジャンル:学問・文化・芸術

ibis2006報告(3)

オーガナイズドセッションのオーガナイザをやっておきながらこんなことを言うのもなんですが,オーガナイズドセッションや招待講演は所詮おまけで IBIS の本領は研究発表です. そもそも入っている気合が違いますね. ただ,ポスターセッションを全部見るのも不可能ですし,2分のプレビューではやはり内容がわからないので,消化不良の感じはあります(それでなくてもいつも IBIS は消化不良という話もありますが).

ポスターは,渡辺先生も(おそらくお世辞なしで)おっしゃっていましたが,下手な国際会議に出るよりもずっとレベルが高いですね.
それにしても査読なしでこれだけのレベルの論文が集まるというのもすごい話ですね.
もちろんすごく有名な先生方の発表も多いということもあるでしょうが,若い方の発表もひけをとっていません.

ただ,経験上,下手をするとだんだん惰性になってくるので,新しい試み入れるとかして活性化していく必要はあると思います.

さて,一日目のポスターセッションですが,招待講演・オーガナイズドセッションを反映して BMI, 確率最適化・強化学習の話のほか,ブースティングもいくつかありました.

強化学習とブースティング関係はおもしろそうなのが多かったので聞きたかったのですが全然聞けませんでした.

最適化関係では比護さんの重点サンプリングと EDA をくっつけたような話はセンス的には好きです. もうちょっと理論が入っていれば言うことなしですが,これは完全に好みの問題かもしれません. 漸近論とか入れると永田さんが発表されていたような話に近づいていくのでしょうか.

あとは土屋さんのスムージングに再帰計算を入れてメモリを減らすというのもシンプルでおもしろいアイディアだと思いました. 実用的にもログデータとかでテラの上のオーダーのデータとかを扱うときは使えるのではないでしょうか.

計算アルゴリズムということでは井出さんのカーネルの近似計算という話も今考えている話に使えないかちょっと検討できそうなネタでした.

ibis2006 報告 (2)

二日目午前はバイオインフォマティクスの中でも特に言語関係. 最初に浅井さんが短時間でわかりやすくて広範なオーバービューをしていました.

もともとゲノム情報での情報の役割はデータベース化とか「情報の整理」がメインだったところに,音声・自然言語といった情報の「知能」としての側面を持ち込んだことによって,従来の職人芸的な遺伝子解析に風穴をあけたところが画期的だったのだと思います. ちなみに私のまわりではナマモノとしての脳と情報科学の分野の壁みたいなのが問題になったりしますが,ナマモノ遺伝子と情報の壁はどうなんでしょうか.

浅井さんの話を聞いていて,やはり静的な文字列としての配列から,ダイナミカルなものとしてとらえる必要性が増しているような気がしました. そうすると思い出すのが前日の樺島さんのトークで,分子生物学的ダイナミクスではなくて,もうちょっと上のレベルの物理モデルというものがあるのだろうという気はしました. まあ今回の話は文法としてのダイナミクスが中心でしたが,物理的な力学モデルを考えるという路線もおもしろそうです.

セッションはカーネル設計(榊原先生)・マイニング(浜田先生)・文献に関する知識発見(小池先生)という構成でした.

カーネルの肝はいかに重要な特徴量に対して,いかに効率よく計算できるものを見出すかということですね. 今回の話は2次構造のステムに着目して文字列カーネルのように再帰的な計算に持ち込むという話でした.

マイニングはグラフマイニングの話で,非常にアルゴリズミックな話でしたが,非常に丁寧に話されていたのでわかりやすかったです. こういう数え上げアルゴリズムの話は,いわゆるマイニングとは違った機械学習分野でも使われ始めていて,いろいろ勉強することが増えて大変です. ちなみに(講演者の浜田先生を含め)若い方たちがみなさんとても元気で講演も上手いという話が出ていました. まあ自分たちが下手すぎるのかもしれないですが. というかこの物言い自体年寄りくさいですね.

最後の文献データベースを使ったマイニング・知識発見の話は,まず生物関係の文献の数が多いのにびっくり. 機械学習分野とは桁が全然違いますね. 生の自然言語処理の難しさみたいなのを見せつけられて,やっぱりリアルワールドは気持ち悪い. トイワールドがいいな,などと時代に逆行する感想を抱いてしまったのでした.

午後の招待講演は神谷先生によるBMIの話.やはりチャレンジングなのは感覚系から離れた部分の情報抽出という部分でしょうか. でも,ビジュアルアテンションの情報がV1, V2 から取れるという話があり,結構感覚系だけで相当いけてしまうのかもしれません. BMI のポイントは,脳の逆問題を解くという難しい問題の代わりに脳信号から外界への順モデルを作ることで問題を単純化してやることでたくさんのことがわかるようになるだろうという期待感だと思います. それから,従来情報屋の役目は,単なるデータ解析をするか,怪しげな脳のモデルを提案するかだったのから,もうちょっと積極的な役割を果たせそうな雰囲気になってきたことでしょうか.

長くなったのでポスターセッションは記事を改めて書きます.

ibis2006 報告 (1)

今年の IBIS は大阪ということでしたが,なかなか盛況です.
東京開催だとつくばから通うことになって逆に大変なので,地方でやるのも悪くないですね.
中之島はちょっと交通不便ですが.

さて,10/31 の午前中の FPAI の樺島さんの講演ぐらいから参加しました. 新しい特定領域に絡めて,わかりやすくかつ魅力的な講演でした. やはり講演はああいう風にやらないといけませんね. まねしようと思っても出来ませんけど.
内容的には,数が変わると相が変わるというような話でしたが,そこに至るロジックがちょっとわからない部分がありました.
N が無限大に行くと,有限では出てこない本質的に違うことが出てくるという話と,N を無限大に持っていくと統計物理的解析が易しくなるという話が両方入っていると思います. ただ,前者は「シグモイド関数でβを無限大に持っていくとステップ関数になる」以上のところはよくわからなかったです. 磁石の例は N を無限に持っていったから磁石ができるようになったわけではなくて,平均だけ見ていたのを磁化率の分布で見てやったから磁石ができるということなのですよね. まあ実はみんなが恐れているというか期待しているのは後者で,樺島研秘伝の大ナタで問題をばっさばっさと切り捨てる力は N 無限大という領域でさらに力を発揮するという方が私にはわかりやすいです. 役人にはそうじゃないでしょうけど.

午後に入って IBIS スタート. 鈴木先生のごあいさつに続いていきなりわれわれのスペシャルセッション. 自分なりに講演がんばっているつもりですが,いまいち受けが悪かったですね. もっと修行しないと.
論文には絵を一枚も入れなかったのでスライドをここにおいておきます. 論文とあわせてご参照ください.
いろいろごちゃごちゃ書いてありますが,その後考えると言いたかったことはそれほど多くありません. たぶん以下の二つぐらいが重要なポイントです.
・GA や EDA はすごく速く温度が下がり,エルゴード性は突然変異に頼っている(典型的な動きは非定常)
・EDA と MCMC の違い. 上田さんに聞かれましたが,あまり適切な答えはできなかったかも. MCMC の提案分布を学習で変えるというアルゴリズムを考えるとこれは EDA に対応しているように思えます(もっと一般化されているけど). すると EDA は MCMC のメタ学習をしているようなものでしょうか? ただ,提案分布の学習という研究自身は福島先生に聞いた感じでは直接にはあまりないみたいです. 個別には結構みんなやっていることなのかもしれませんけど.

さて,前座の私に続いて伊庭先生@東大,鈴木先生による EDA の解説. 立場的に正反対といってもいいお二人ですが,別に泥沼というわけでもなく,それぞれはっきりしていてよかったと思います. 聴衆の皆さんにも楽しんでいただけたようです. 招待講演の Muehlenbein 氏の話は鈴木先生の話が前にあったので,結構わかりやすかったのではないでしょうか.

セッション全体で,「事前知識」みたいなのが,アルゴリズムがうまくいくかどうかの鍵という話が出ていました. これはまあ最適化に限った話ではなくて,普通の学習の話でも同様にこの論議はあるわけですね. ただし,「何も前提条件を定めない」アルゴリズムでありながら,「事前知識が大事」とかいうとなんか詐欺にあったような気になってしまうのかもしれません.

まあなんにしても無事に終わってよかったです. FPAI の主査の有村先生と知り合いになれたのも個人的には収穫でした.
二日目の報告は別記事で.

FC2Ad

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。