集中講義(九州大学数理学研究院) バイオインフォマティクスにおける カーネル法およびグラフ理論 (2) カーネル法 阿久津 達也 京都大学 化学研究所 バイオインフォマティクスセンター 内容 サポートベクタマシンとカーネル法 タンパク質配列分類のためのローカルア ライメントカーネル 化合物分類のためのグラフカーネル サポートベクターマシン(1) カーネル法の一つ、ニューラルネットワークと類似 1990年代に、Cortes と Vapnik が発明 トレーニングデータとして与えられた正例と負例から、 それらを分離する超平面を計算 機械学習、統計学、人工知能、パターン認識、バイオ インフォマティクスなど様々な分野に応用 配列分類 タンパク質フォールド予測、二次構造構造 遺伝子発現データ解析 タンパク質相互作用予測 化合物の性質推定 c.f. Kernel Methods in Computational Biology, MIT Press, 2004 サポートベクターマシン(2) 正例と負例を与 えて、それらを最 適(マージンを最 大)に分離する超 平面を学習 カーネルを適切に 定義することによ り超平面以外で の分離が可能 margin SVMによるテストデータの分類 学習データより超平 面を学習(SVM) テストデータは、対 応する点の超平面 に対する位置(上 下)で判定 テストデータ カーネル サポートベクターマシン:基本的には超平面で分離 Φ(x) (特徴ベクトル):「非線形曲面⇒超平面」に写像 カーネル: K(x,y)=φ(x)・φ(y) x と y の類似度が高い ⇔ K(x,y)が大 φ(x) カーネルの定義 関数 K: X×X→ R がカーネル iff. X から内積空間 F への写像φが存在し、 K (x, y) (x) (y) とかける マーセルの定理 (1) X を有限空間とし、K(x,y) を X 上の対称関 数とすると、 K(x,y) がカーネル iff. 行列 K=(K(xi,xj)) (i, j=1,…,n) が半正定値 行列 K が半正定値 iff. K の固有値がすべて非負 iff. (x) (xtKx 0) マーセルの定理 (2):証明 K は対称なので、K=VΛVt とかける。ただし、Λは固 有値λi を対角要素とする対角行列で、V は直交行列。 vij=(V)ij とし、 (x ) v n とすると i k ki k 1 n (xi ) (x j ) k vkivkj (V ΛV t )ij K (xi , x j ) k 1 一方、λs を負の固有値とし、 とすると、 n z vsi (xi ) ΛV t v s i 1 z z v V Λ ΛV vs v Kv s s 0 t s t t s マーセルの定理 (3):連続値の場合 K(x,y) がカーネル iff. 任意の関数 fL2(X) に対して K ( x , y ) f ( x ) f ( y ) d x d y 0 カーネルの性質(1) K(x,y)=φ(x)・φ(y) のとき、特徴ベクトル間の距 離 ||φ(x)-φ(y)|| は ( x) ( y ) K (x, x) K (y, y ) 2 K (x, y ) 証明 ( x) ( y ) 2 (x) (x) (y ) (y ) 2 (x) (y ) カーネルの性質(2) Ki が以下を満たす時、K もカーネル x, y X , lim K n (x, y ) K (x, y ) n カーネルの例(1) (x・y+c)d はカーネル 証明(d=2, c=0の場合) (x y ) ( x1 y1 x2 y2 ) 2 2 x1 x1 y1 y1 x2 x2 y2 y2 2 x1 x2 y1 y2 x1 x1 , x2 x2 , 2 x1 x2 y1 y1 , y2 y2 , 2 y1 y2 カーネルの例(2) K1, K2 がカーネルの時、以下もカーネル (i) K1 (x, y ) K 2 (x, y ) (ii) a K1 (x, y ) (a 0) (iii) K1 (x, y ) K 2 (x, y ) (i)(ii)より、カーネルの正係数の線形和もカーネル (i)(ii)(iii)より、カーネルの正係数の多項式もカーネル カーネルの例(3) (i) f(x): X →R ⇒ f(x) f(y) はカーネル 証明 n n v v K (x , x i 1 j 1 i j i n j n ) vi v j f (xi ) f (x j ) i 1 j 1 n n vi f (x i ) v j f (x j ) 0 i 1 j 1 (ii) exp(K(x,y)) はカーネル 略証: 指数関数は正の係数を持つ多項式により任意の精度 で近似でき、また、カーネルの多項式もカーネルとなるため、 性質(2)によりカーネルとなる カーネルの例(4) exp(-||x-y||2/σ2) はカーネル (Gaussian RBF kernel) 証明 xy exp 2 2 x2 y2 2x y exp 2 exp 2 exp 2 最初の二項の積は例(3-i)によりカーネル、 最後の項は例(3-ii)によりカーネル、 それらの積は例(2-iii)によりカーネル カーネルの例(5) 以下は必ずしもカーネルとはならない (i) (ii) K (x, y ) logK (x, y ) (iii) K (x, y ) tanh(ax y ) (シグモイドカーネル ) サポートベクターマシン: 定式化(1) 学習データ: Rd 上の点とラベルのペアの集合 S (xi , yi ) | xi R , yi {1,1} yi=1 ⇒ 正例 d yi=-1 ⇒ 負例 最適化問題 (凸二次計画問題) minimizew w w ,b subject to yi (w xi b) 1 (w,b): Rd 上の超平面 h: w・x+b=0 に対応 1/||w||: h から一番近い xi までの距離(=margin) サポートベクターマシン: 定式化(2) 1/ w サポート ベクター γ minimizew w (w xi b) 1 w ,b subject to yi (w xi b) 1 (w xi b) h (w xi b) 1 1 ( w x b) (w xi b) 1 0 サポートベクターマシン: 双対化(1) 問題の双対化 (|S|=l) もとの問題のラグランジアンは L(w, b, α) w w i 1 i yi (w xi b) 1 l 1 2 w と b について微分をとり L(w, b, α ) l w i 1 yi i x i 0 w L(w, b, α ) l i 1 yi i 0 b 上記をもとのラグランジアンに代入し L(w, b, α) i 1 i l 1 2 l l i 1 j 1 yi y j i j xi x j サポートベクターマシン: 双対化(2) 双対問題 (凸二次計画問題) maximize i 1 i l α subject to l i 1 1 2 l l i 1 j 1 yi y j i j x i x j yi i 0 i 0 マージン 1 l * * * , where w i 1 yii xi w サポートベクターマシン: 双対化(3) KKT相補条件 サポート ベクター i yi (w* xi b* ) 1 0 * サポートベクター xi がサポートベクター ⇔ αi* > 0 h 超平面 h w x b * * y x x b i i i i 1 l 0 * * γ サポートベクターマシン: カーネル化 xi・xj を K(xi, xj) で置換 (← K(xi, xj) =φ(xi)・ φ(xj) ) maximize i 1 i l α subject to l i 1 i 0 (SV:サポートベクターの集合) w x b * y xi SV i * i K ( x i , x) b b* y y K ( x , x ) i j i j i j j 1 l i 1 yi i 0, 識別関数 * l 1 2 * maxyi 1 w* xi min yi 1 w* xi 2 利点: 特徴ベクトルを陽に扱わずに、カーネル値のみ が計算できればOK ⇒ カーネルトリック ソフトマージン(2-ノルム) 正負例が完全には 分離不可の場合 スラック変数 ξi の導入 min w w C l w ,b 2 i 1 i subject to yi (w x i b) 1 i i 0 h xi ξi ξj xj xk ξk γ ソフトマージン(2-ノルム): 双対化+カーネル化 maximize α y y K (x , x y 0 l i 1 1 2 subject to i l l i 1 j 1 l i 1 i i 0 i i j i j i 1 ) j C ij ソフトマージン(1-ノルム) 1-ノルムの場合、二 乗和でなく、線形和 をとる min w w C i 1 i l h xi ξi ξj w ,b subject to yi (w x i b) 1 i i 0 xj xk ξk γ ソフトマージン(1-ノルム): 双対化+カーネル化 i i 1 l maximize α 1 2 subject to l l i 1 j 1 y 0 i i i 1 l 0 i C yi y j i j K (x i , x j ) カーネル法 古くから多くの研究 SVM以外にも様々な応用 KPCA: カーネル主成分分析 KCCA: カーネル正準相関分析 SVMによる多数のクラスの分類法(一例) 各クラスごとにSVMを構成 そのクラスの例を正例、それ以外の例を負例とする 新たなデータをそれぞれのSVMに入力し、スコ アが最も良いクラスを出力 実問題に対するカーネル データから特徴ベクトル(feature vector)を 作るのが一般的、かつ、 多くの場合に実用的 特徴ベクトル: 実数値の列 例えば、各化合物 x に対し、 Φ(x) = (分子量, 容積, 表面積, logP,…) とすれば、化合物 x,y に対するカーネルは Φ(x) と Φ(y) の単なる内積 内容 サポートベクタマシンとカーネル法 タンパク質配列分類のためのローカルア ライメントカーネル 化合物分類のためのグラフカーネル タンパク質立体構造予測 アミノ酸配列から、 タンパク質の立体 構造(3次元構造) をコンピュータによ り推定 実験よりは、精度が 悪い だいたいの形がわ かれば良いのであ れば、4~5割の予 測率 アミノ酸配列 T C A V F G L G G V R L S D V コンピュータ タンパク質 立体構造 フォールド予測 (Fold Recognition) アミノ酸配列 精密な3次元構造 ではなく、だいたい の形(fold)を予測 立体構造は1000 種類程度の形に分 類される、との予 測(Chotia, 1992) に基づく T C A V F G L G G V R L S D V 1000個のテンプレート構造 SCOPデータベース タンパク質立体構造を形状を中心に、人手で、 階層的に、分類したデータベース SCOP Root ‥‥‥‥‥ Class.1 Class.2 ‥‥‥‥‥ Fold.1 Fold.2 Super Super Family.1 Family.2 Family.1 ‥‥‥‥‥ Family.2 mkkrltitlsesvlenlekmaremglsksam ispqarafleevfrrkqslnskekeevakkcg isvalenykkgq itplqvrvwfinkrmrs Family.3 Super Family 予測 入力配列が SCOP のどのスーパーファミリー に属するかを予測 Super Family.1 タンパク質配列 madqlteeqiaefkeafslfdkdgdgtittkel gtvmrslgqnpteaelqdminevdadg Super Family.2 ngtidfpefltmmark : : Super Family.3 既存手法の主なターゲット Class Secondary Structure Prediction Fold Threading Super Family HMM, PSI-BLAST, SVM Family SW, BLAST, FASTA 配列解析のためのカーネル 配列を実数ベクトルに変換 様々なカーネルの提案 Marginalized kernel, Fisher kernel, Local alignment kernel, … ACCGTA φ(x) CACGTA TCCGTCC CCACCG CCACCGA TCCGTTC CTACCA CTACCGG GACCGTA GACCTC AGCGTG AGCGTAA TACCGTA タンパク質配列解析のための既存カーネル HMMから特徴ベクトルを抽出 配列から直接特徴ベクトルを抽出 Fisher カーネル (Jaakkola et al., 2000) Marginalized カーネル (Tsuda et al., 2002) Spectrum カーネル (Leslie et al., 2002) Mismatch カーネル (Leslie et al., 2003) 他の配列とのスコアを特徴ベクトルとして利用 SVM pairwise (Liao & Noble, 2002) Spectrumカーネル AA AC AG A CCT A C ( 0 φ(x) 2 0 CC CG CT 1 0 1 TA 1 ) 配列アライメント バイオインフォマティクス の最重要技術の一つ 2個もしくは3個以上の配 列の類似性判定に利用 文字間の最適な対応関 係を求める(最適化問題) 配列長を同じにするよう に、ギャップ記号(挿入、 欠失に対応)を挿入 A L G F G S L Y G A L G G V S V G A L G F G A L G S L Y G G V S V G ローカルアライメント(1) (Smith-Watermanアルゴリズム) 配列の一部のみ共通部分があることが多い ⇒共通部分のみのアラインメント 配列検索において広く利用されている 例えば、HEAWGEH と GAWED の場合、 AWGE A W -E というアライメントを計算 ローカルアライメント(2) 動的計画法 の式 0 F ( i 1, j 1) s ( x y ) , F ( i , j ) max F ( i 1, j ) d F ( i , j 1) d LAカーネル SWアルゴリズムをカーネルとして利用したい ⇒ MAX 操作のためカーネルとならない 一方、ペアHMMはカーネルとなることが既知 本研究 SWアルゴリズムを模倣するペアHMMを構成 SWアルゴリズム: 最適なパスのみ LAカーネル: 全てのローカルアライメントの(重みつき)和 隠れマルコフモデル(HMM) HMM≒有限オートマトン+確率 定義 出力記号集合Σ 状態集合 S={1,2,…n} 遷移確率(k→l) 0.4 0.3 akl 2 1 出力確率 0.5 0.5 ek(b) A: 0.2 B: 0.8 0.6 3 0.7 A: 0.1 B: 0.9 A: 0.7 B: 0.3 HMMにおける基本アルゴリズム Viterbiアルゴリズム 出力記号列から状態 列を推定 Parsing(構文解析) 0.4 BABBBAB 出力記号列からパラ メータを推定 Learning(学習) 0.3 1 0.5 0.7 A: 0.2 B: 0.8 0.6 A: 0.1 B: 0.9 A: 0.7 B: 0.3 0.5 Baum-Welchアルゴ リズム (EMアルゴリズム) 2 3 2312131 2 1 0.4 0.3 3 BABBBAB ABBABBAAB BBBABBABAB BAABBBBA 2 1 0.5 0.7 0.5 A: 0.2 B: 0.8 0.6 3 A: 0.1 B: 0.9 A: 0.7 B: 0.3 ペアHMM 2 通常のHMM 1状態から1記 号を出力列 配列を出力 ペアHMM A: 0.1 C: 0.9 1 2312131 3 A: 0.2 C: 0.8 A: 0.7 C: 0.3 1状態から記 号ペアを出力 アライメントを 出力 CACCCAC 2 (A,-) : 0.5 (C,-): 0.5 1 (A,A): 0.2 (A,C): 0.3 (C,A): 0.4 (C,C): 0.1 2312131 3 (-,A) : 0.5 (-,C): 0.5 C-ACA- A -AA -CAA LAカーネルの定義(1) 文字(残基)ペアのスコア: Kaβ (x,y) if | x | 1 or | y | 1 0 K a ( x, y) exp(s( x, y)) otherwise ギャップのスコア: Kgβ (x,y) K g ( x, y ) exp ( g (| x |) g (| y |) ) ただし、 g (0) 0, g (n) d e(n 1) LAカーネルの定義(2) カーネルの畳み込み(convolution) K1 K2 ( x, y) x x x, y y y アラインされる文字が n 個ある場合のスコア n 1 K ( n ) ( x, y ) K 0 K a K g K1 ( x , y ) K2 ( x , y ) K a K 0 ただし、 K 0 1 LAカーネル K LA ( x, y) K (i ) ( x, y) i 0 F V- - EKL GAV- - T F L L DDRL - - VL L T Kaβ Kgβ Kaβ Kgβ Kaβ Kgβ Kaβ n=7 LAカーネルとSWスコアの関係 π:(ローカル)アラ イメント s(x,y,π): x,yの アライメントπの スコア Π:可能なアライメ ントの集合 定理 SW ( x, y) max s( x, y, ) ( x , y ) 1 ln max exp( s( x, y, )) ( x , y ) K LA ( x, y) exp( s( x, y, )) ( x , y ) lim ln(K LA ( x, y)) SW ( x, y) 1 LAカーネルとSWスコア SWスコア: 1個の最適なアライメントのみを考慮 LAカーネル: すべての可能なアライメントを考慮 配列 x HAWGEG 配列 y AGEHV SWスコア AWGE A - GE LAカーネル π1 AWGE A - GE p(x,y,π)=0.003 π2 AWGE AG - E p(x,y,π)=0.001 π3 HAWGE p(x,y,π)=0.0006 π4 HAWGE - G p(x,y,π)=0.0001 A -G -E A -G EHV - SVM-pairwise vs. LA kernel SVM-pairwise 入力配列 データ ベース配 列群 特徴ベク トル カーネル値 x LA kernel y x SWスコア y Pair HMM (0.2, 0.3, 0.1, 0.01) (0.9, 0.05, 0.3, 0.2) 内積 0.227 0.253 SVM-pairwise vs. LA-kernel Positive and Negative training data (sequences) SVM-pairwise SWalignment Single protein Feature Vector (φ(x)) LA-Kernel Single protein x Single protein y Local Alignment by Pair-HMM K(x,y) 対角優位性問題への対処 2つの配列 x と y について、K(x,x) と K(x,y) のスケールが違う問題 この時サポートベクターマシンは正負の例を 記憶するだけでうまく学習できない。 (実際上の)回避法 ~ K LA ( x, y ) ln K LA ( x, y ) ~ K LA ( x, y ) K norm ~ 1 ~ K LA ( x, x) K LA ( y, y ) 並列計算機の利用 LA kernel の計算 1回あたりO(n2)時間だが数万回の計算が必要 並列計算機 SGI ORIGIN 3800 (R14000(500MHz) × 256CPU) PCクラスタ HPC (2.8GHz Xeom × 8CPU) 並列化 学習データ中のすべての配列ペアに対して計算 1CPUだと数十日を要する LSF (Load Sharing Facility) と script の組み合わせ 単純なデータ分割(分割されたデータごとに別CPUで計算) 半日程度でKernel計算が終了 並列化手法は単純だが、大変有効 提案手法の評価法 ROCによる性能評価 カーブが 上にある ほど良い 性能 mRFPによる性能評価 カーブが 上にある ほど良い 性能 結論 タンパク質ホモロジー検出のための新たなカーネル Smith-WatermanアルゴリズムとペアHMMの組み合わせ ベンチマークテストにおいては最高クラスの性能 課題 タンパク配列の個数(学習データ数)が少ないスー パーファミリーの予測 内容 サポートベクタマシンとカーネル法 タンパク質配列分類のためのローカルア ライメントカーネル 化合物分類のためのグラフカーネル カーネル法による化合物の分類・性質予測 Marginalized グラフ・カーネル(1) Kashimaらが2003年に提案 K (G1,G2 ) p(h) p(h')K '(l (h), l (h')) hV1* h'V2* h: グラフ G1 におけるパス h’: グラフ G2 におけるパス l(h): パス h のラベル(原子名)の列 K’(x,y): ラベル列間のカーネル関数 (例: K’(x,y)=1 if x=y, otherwise 0 ) Marginalized グラフ・カーネル(2) G1 u3 u1 H u2 C O u4 Cl G2 H v1 v2 H h (u1 , u2 , u3 ), h' (v1 , v2 , v5 ) l (h) (H, C, O), l (h' ) (H, C, O) K ' (l (h), l (h' )) 1 v4 C v3 v5 O v6 H H h' ' (u1 , u 2 , u3 , u 2 , u 4 ) l ( h' ' ) ( H, C, O, C, Cl) h' ' ' (v1 , v2 , v5 , v2 , v1 ) l ( h' ' ' ) ( H, C, O, C, H ) K ' (l ( h' ' ), l ( h' ' ' )) 0 Marginalized グラフ・カーネル(3) x H O C φ(x) Cl H C N ( 0.03 0.03 0.0 H C H O C H H C H 0.02 0.0 0.01 0.002 ) Marginalized グラフ・カーネル(4) p(v1 , v2 , v3 ) 0.25 0.9 0.3 0.1 p(v2 , v4 , v2 , v3 ) 0.25 0.3 0.9 0.3 0.1 p0 (vi ) 0.25 pq (vi ) 0.1 pa (v2 | v1 ) 1.0 (1 pq ) pa (v2 | v1 ) 0.9 pa (v3 | v2 ) 1 / 3 (1 pq ) pa (v3 | v2 ) 0.3 G1 START 0.25 0.25 0.25 0.25 O 0.3 v1 H 0.3 v2 0.9 C 0.3 0.9 0.9 0.1 v3 0.1 v4 Cl 0.1 END 0.1 Marginalized グラフ・カーネル(5) p s ( v ) p0 ( v ) p q ( v ) pt (u | v) 1 pq (v ) pq ( v ) pa (u | v) pq (u ) n p(v1 ,, vn ) ps (v1 ) pt (vi | vi 1 ) i 2 Marginalized グラフ・カーネル(6) s (u1 , v1 ) ps(1) (u1 ) ps( 2) (v1 ) t ((ui , vi ) | (ui 1 , vi 1 )) pt(1) (ui | ui 1 ) pt( 2) (vi | vi 1 ) n ((u1 , v1 )(u2 , v2 ) (un , vn )) s (u1 , v1 ) t ((ui , vi ) | (ui 1 , vi 1 )) i 2 G1 u 1 H G2 Cl K O v1 u2 G1×G2 ( u1 , v1 ) ( u1 , v2 ) ( u1 , v3 ) v2 v3 H H,K H,O H,H Cl,K Cl,O Cl,H ( u2 , v1 ) ( u2 , v2 ) ( u2 , v3 ) Marginalized グラフ・カーネル(7) K (G1,G2 ) p(h) p(h')K '(l (h), l (h')) hV1* h'V2* s ( s (v))vV (V V1 V2 ) t ( t (u' | u))u 'V ,uV (h) h(V1V2 )* (h) s ( t ) n 1 1 hV * , |h| n n 1 K (G1,G2 ) (h) s ( t ) 1 * n 1 hV , |h| n n1 2 1 1 x x 1 /(1 x) s (I t ) 1 Marginalized グラフ・カーネル⇒逆行列の計算 Marginalized グラフカーネルの問題点 パス(の集合)だけを用いて化学構造を表現 反応中心などの情報を十分に取り入れることが困 難? 行列のサイズが大きく(数千×数千)なるため、 逆行列の計算に時間がかかる すべてのトレーニングデータのペア(化合物のペア) について、それぞれ、逆行列を計算することが必要 ⇒ 構造情報(Morgan Index)との組み合わせ Morganインデックス 化学構造の一意名を計算機により計算するために 1960年代に考案 CAS(Chemical Abstract Service)で利用 等価な原子に同じ番号(整数値)が与えられるような、 各原子への番号づけを計算 簡単な繰り返し計算による番号づけ 等価で無い原子にも同じ番号がつく可能性(でも、低い) ⇒ Marginalized グラフカーネルにおいて、原子名ととも に、モーガンインデックスを利用 原子名およびモーガンインデックスの両者が一致するパス のみを考慮 ⇒ 部分構造に関する特徴も、ある程度、取り入れられる Morganインデックスの計算法 すべての原子に番号1を割り当てる すべての原子 x について以下を実行 x に結合している原子の番号を総和を、x の番号とする 1 2 1 1 1 1 1 1 1 1 N O 1 2 2 1 4 3 2 2 3 2 2 1 5 4 3 7 5 5 7 5 6 7 1 1 N 1 3 N 3 O O 3 O O 5 O 計算機実験 MUTAG データを利用 標準的ベンチマークテストの一つ 化合物のサルモネラ菌の変異性への影響データ 125個の正例、63個の負例を利用 各例1個のみをテストデータとし、他を学習データと したテストを繰り返した ソフトウェア SVMソフトとして、GIST (http://microarray.cpmc.columbia.edu/gist) を利用 他は C++ で記述 計算機実験の結果: 予測精度 Marginalized カーネル + モーガン法 計算機実験結果: 他手法との比較 データセット1 データセット2 Lin Reg: 線形回帰、 DT: 決定木、 NN: ニューラルネット Prolog: 帰納論理プログラミング Sebag, Kramer: 多くの feature を利用、複雑 計算機実験結果: 計算時間 結論 モーガンインデックスの利用により以下を達成 Marginalizedカーネルと、同様の精度 他手法と比べても同等以上 数十倍以上、高速 今後の課題 他のインデックス手法の利用、開発 他手法との比較 大規模な計算機実験 特徴ベクトルからの化学構造の推定 カーネル法(SVM, etc.) (Akutsu, Fukagawa, CPM 2005) データ (配列, 化合物) 特徴ベクトル 本研究 特徴ベクトル データ 新規配列や化合物のデザイン,創薬への利用の可能性 Inverse function 本研究の結果と応用可能性 理論的成果 文字列の場合 多項式時間で計算可能 木の場合 ある制約のもとで多項式時間で計算可能 グラフの場合 一般には強NP困難 創薬へ応用可能性 A 二つの化合物の中間構造を 持つ新たな化合物の設計 CH3 CH3 (A+B)/2 B 参考文献 SVMおよびカーネル一般 バイオインフォマティクスにおけるカーネル Kernel Methods in Computational Biology, MIT Press, 2004. Marginalized Kernel + Morgan Index N. Cristianini & J. Shawe-Taylor: An Introduction to Support Vector Machines and Other Kernel-based Learning Methods, Cambridge Univ. Press, 2000. (日本語訳: 大北(訳)サポートベクターマシン入門、共立出版, 2005) P. Mahe, N. Ueda, T. Akutsu, J-L. Perret, J-P. Vert: Extensions of marginalized graph kernels, Proc. 21st Int. Conf. Machine Learning, 552-559, 2004. LAカーネル H. Saigo, J-P Vert, N. Ueda, T. Akutsu: Protein homology detection using string alignment kernels, Bioinformatics, 20:1682-1689, 2004.
© Copyright 2024 ExpyDoc