Fleiss 的 Kappa 统计量分析方法,Minitab中“属性一致性分析”
Minitab“属性一致性分析”中有Fleiss Kappa分析方法,Kappa分析是属性型测量系统分析的典型方法,在AIAG的MSA手册中推荐的是Cohen Kappa分析方法。Cohen Kappa 分析方法一个最大的缺陷是只能按每个评价者相同的评价顺序列进行比较。
例如:有两个评价者各测量了3轮,则对于同一个被测对象,只能A1与B1比较、A2与B2比较、A3与B3比较,A1的结果不能与B2和B3进行比较,A2的的结果不能与B1和B3进行比较,A3的结果不能与B1和B2进行比较。
品质协会(www.PinZhi.org)备注:而Fleiss Kappa分析法则克服了这种缺陷,Fleiss方法是将测量同一对象的所有测量结果进行两两比较而得到结果一致的次数。
例如:A1=0、A2=1、B1=1、B2=1。
则结果一致的情形有:A2B1、A2B2、B1A2、B1B2、B2A2、B2B1,即结果一致的次数为6次。
这里在比较时是两两互相比较,即“你”与“我”比较后,“我”还要与“你”比较,也就是两两之间实际比较了两次,依此方法得到一致性的比较结果,在此基础上计算Kappa值。
若要全面解释Fleiss Kappa方法,需要很长的篇幅及图表来说明。以下是一个示例,感兴趣的读者可以体会Fleiss Kappa是如何计算出来的。
分类0=Not OK
1=OKA×AB×BA×BA1×RA2×RA3×RB1×RB2×RB3×R
检验对象编号参考值R评价者 - 试验数
A1A2A3B1B2B3
111111116630222222
211111116630222222
301000002620022222
400000106220222202
500010002620220222
观察到的成对一致性组合数n*2226120810810810
可能的成对一致性组合数N*3030150101010101010
观察到成对一致性组合数的概率Pobs=n*/N*0.730.870.800.801.000.801.000.801.00
观察到的每个分类的评价数nk(k=0,…Nc)7815565656
8715545454
总评价次数N151530101010101010
观察到的每个分类的评价数占比nk/N0.4670.5330.50.50.60.50.60.50.6
0.5330.4670.50.50.40.50.40.50.4
随机一致性评估的期望概率 Pexp=∑k(nk/N)20.5020.5020.50.50.520.50.520.50.52
Kappa: (Pobs-Pexp)/(1-Pexp)=k0.4640.7320.6000.610.610.61
每个评价者比对于参考值的Kappa 0.7330.867
所有评价者比对于参考值的Kappa0.800
最小Kappa值决定最终结果
评价者姓名代码评价者
Kappa≥0.9≥0.7-0.9<0.7评价者比对参考值的Kappa≥0.9≥0.7-0.9<0.7
A0.464 ×0.733 ×
B0.732 × 0.867 ×
所有评价者之间的Kappa所有评价者比对参考值的Kappa
所有人0.600 ×0.800 ×
最终结果 所有结果中的最小值Kappa =0.464
Kappa≥0.9 能力满足要求0.9>Kappa≥0.7 能力有条件
满足要求Kappa<0.7×能力不满足要求
:handshake 谢谢分享。。。 {:1_95:} 感谢分享 谢谢分享// :D:D:D 有点意思 谢谢分享。。。 谢谢分享