あるいは漸進比較法によるランキング推定 高濱 隆輔(京都大学大学院

3K3-OS-20a-4in 私たちは函館空港でお土産に何を買えばよいのか
あるいは 漸進比較法によるランキング推定
高濱 隆輔(京都大学大学院) 神嶌 敏弘(AIST) 鹿島 久嗣(京都大学大学院)
概要:
■
■
■
■
多数のオブジェクトのランキングを推定する際には、オブジェクト間の比較データが必要
これらを大量に集めるとき、オブジェクトの評価に要するコストが問題
オブジェクトの評価回数を削減するため、漸進比較法とその能動学習法を提案
実験により、提案手法は評価回数が少ない場合でも高い推定精度を実現することを確認
提案手法:
オブジェクトの評価回数の削減のため、新しいデータ収集法と能動学習法を用いる
データ収集法
能動学習法
一対比較法: 2つを評価しそれらを比べる
評価
評価
評価
評価
評価
評価
ロイズ
美冬
バターサンド
白い恋人
美冬
バターサンド
期待分布変化量: オブジェクトのスコアの分布の
変化の期待値が大きいペアを優先的に比較
オブジェクトBの
スコアの分布
オブジェクトAの
スコアの分布
Aが勝った
比較
比較: この2つを比べると
どちらがいいですか?
Bが勝った
比較
3回の比較結果を得るのに6回の評価が必要
漸進比較法: 直前に評価したものと比べる
評価
評価
ロイズ
評価
評価
バターサンド
美冬
期待確率変化量: オブジェクト間の勝率を格納した
勝率行列の変化の期待値が大きいペアを優先的に比較
A
白い恋人
A
B
ー 0.2 0.4 0.7 0.6
0.8 ー 0.8 0.3 0.9
0.6 0.2 ー 0.1 0.4
A
比較: 直前のものと比べて
どちらがいいですか?
比較
比較
A
B
ー 0.3 0.5 0.9 0.7
0.7 ー 0.8 0.4 0.9
0.5 0.2 ー 0.2 0.4
3回の比較結果を得るのに4回の評価で十分
A
B 0.3 0.7 0.9 ー 0.7
B 0.1 0.6 0.8 ー 0.7
0.4 0.1 0.6 0.3 ー
Aが勝った
Bが勝った
0.3 0.1 0.6 0.3 ー
A
B
ー 0.1 0.3 0.5 0.5
0.9 ー 0.8 0.2 0.9
0.7 0.2 ー 0.1 0.4
B 0.5 0.8 0.9 ー 0.7
0.5 0.1 0.6 0.3 ー
実験結果: Wikipedia記事の比較タスクに関するデータセットで性能を評価
漸進比較法(提案手法)
期待確率変化量(提案手法)
高
高
!
!
ラ
ン
キ
ン
グ
の
推
定
精
度
低
一対比較法(既存手法)
漸進比較法は一対比較法より速く
ランキングの推定精度が向上
ラ
ン
キ
ン
グ
の
推
定
精
度
低
期待分布変化量(提案手法)
ランダム(ベースライン)
提案手法(特に期待確率変化量)は
ランダムな手法より速く
ランキングの推定精度が向上
!
オブジェクトの評価回
数
!
オブジェクトの評価回
数
エントリー:
六花亭 マルセイ
バターサンド
北海道ホワイト
ラズベリー
三方六の小割
ロイズ
ホリ 夕張メロン
生チョコ オーレ
プチゴールド
ハスカップ
ジュエリー
石屋
美冬
花畑牧場
生キャラメル プレーン
石屋
白い恋人
六花亭 ストロベリー
チョコ ホワイト