グリコレーティング – Wikipedia

グリコレーティング (Glicko rating) は、チェスや囲碁のようなゲームにおいてプレイヤーの強さを評価(レーティング)するためのアルゴリズムである。マーク・グリックマンによりイロレーティングを改善するべく発明されたもので、当初はチェスのランキングに用いることが意図されていた。レーティングの定義や基準はイロレーティングと同様である。グリコレーティングの最大の特徴は、レーティング計算時にレーティング偏差 (ratings deviation, RD) と呼ばれるレーティングの信頼性を図る手法が導入されたことである。

グリコレーティング並びに後述のグリコ2レーティングはパブリックドメインとして公開されており、多くのオンライン上のゲームサーバーにおいて用いられている(例、Lichess, Free Internet Chess Server, Chess.com, Counter-Strike: Global Offensive英語版, Guild Wars 2英語版[1])。グリコレーティングの数式は、グリックマンのウェブサイトにて公開されている。

RDはプレイヤーのレーティングの正確さを表しており、RDは標準偏差とイコールである。例えば、レーティングが1500、RDが50のプレイヤーの場合、その実際の強さは95%の確率で1400から1600(1500から標準偏差の2倍)の間にある。この範囲はレーティングにRDの2倍を加算・減算することで求められる。ゲーム後に変動するレーティングはRDに依存しており、RDが小さくなれば変動もより小さく(レーティングは既に正確に評価されているため)、逆にRDが大きい場合は変動も大きくなる(情報が足りず、真のレーティングがまだ判明していないため)。RD自身もゲームをプレイするごとに減少していくが、ゲームをプレイしない期間が続くとゆっくりと上昇する。

グリコ2レーティング (Glicko-2 rating) は、グリコレーティングをさらに改良したもので、新たにレーティング変動率 (rating volatility, σ) が導入されている。グリコ2レーティングを僅かに改造したバージョンが、オーストラリアチェス連盟英語版により実装されている。

算出方法[編集]

以下の算出方法はグリコレーティングのものである。グリコ2レーティングにおいては異なる。

プレイヤーがまだレーティングされていない場合、初期値として通常はレーティングが1500、RDは350を使用する。

ステップ1: 事前RDの算出[編集]

新しいレーティング偏差 (

RD{displaystyle RD}

) は古いレーティング偏差 (

RD0{displaystyle RD_{0}}

) を使って求められる。

RD=min(RD02+c2t,350){displaystyle RD=min left({sqrt {{RD_{0}}^{2}+c^{2}t}},350right)}

t{displaystyle t}

は最後にゲームをプレイしてからの経過時間(レーティング期間)、350 はまだレーティングされていないプレイヤーのRDである。もし一つのレーティング期間に複数のゲームが発生した場合、それらは同時に起きたものとして扱われる。レーティング期間の単位はゲームが行われる頻度によって決められ、数か月にわたることもあれば数分程度のこともある。定数

c{displaystyle c}

はプレイヤーのスキルが、経過時間に応じて不確かになっていくことに基づく。この値は、データ分析によって算出するか、またはプレイヤーのRDが未レーティングの人のRDと同程度になるのに必要と思われる時間の長さから推定することができる。たとえば標準的なプレイヤーのレーティング偏差が50で、プレイヤーのレーティング偏差が100レーティング期間で初期値の350に戻ると仮定した場合の定数

c{displaystyle c}

は以下のように求められる。

350=502+100c2{displaystyle 350={sqrt {50^{2}+100c^{2}}}}

[2]

から

(3502−502)/100=c{displaystyle {sqrt {(350^{2}-50^{2})/100}}=c}

ステップ2: 新レーティングの算出[編集]

m回の一連のゲーム後の新レーティングは、以下のように求められる。

r=r0+q1RD2+1d2∑i=1mg(RDi)(si−E(s|r,ri,RDi)){displaystyle r=r_{0}+{frac {q}{{frac {1}{RD^{2}}}+{frac {1}{d^{2}}}}}sum _{i=1}^{m}{g(RD_{i})(s_{i}-E(s|r,r_{i},RD_{i}))}}

各値は以下となる。

g(RDi)=11+3q2(RDi2)π2{displaystyle g(RD_{i})={frac {1}{sqrt {1+{frac {3q^{2}(RD_{i}^{2})}{pi ^{2}}}}}}}

E(s|r,ri,RDi)=11+10(g(RDi)(r−ri)−400){displaystyle E(s|r,r_{i},RD_{i})={frac {1}{1+10^{left({frac {g(RD_{i})(r-r_{i})}{-400}}right)}}}}

q=ln⁡(10)400=0.00575646273{displaystyle q={frac {ln(10)}{400}}=0.00575646273}

d2=1q2∑i=1m(g(RDi))2E(s|r,ri,RDi)(1−E(s|r,ri,RDi)){displaystyle d^{2}={frac {1}{q^{2}sum _{i=1}^{m}{(g(RD_{i}))^{2}E(s|r,r_{i},RD_{i})(1-E(s|r,r_{i},RD_{i}))}}}}

ri{displaystyle r_{i}}

各対戦相手のレーティング

si{displaystyle s_{i}}

各ゲームの結果。勝利が 1、引き分けが

12{displaystyle {frac {1}{2}}}

、敗北が 0

ステップ3: 新RDの算出[編集]

事前のRDの計算においては、プレイヤーのスキルを測定できなかった期間(対局しなかった期間)の不確実性を表すためにRDを増加させた。何局か対局した後には、確実性が増したとして逆にRDを減少させる。

RD′=(1RD2+1d2)−1{displaystyle RD’={sqrt {left({frac {1}{RD^{2}}}+{frac {1}{d^{2}}}right)^{-1}}}}

関連項目[編集]

外部リンク[編集]