评分者间一致性和 CI 计算
Interrater agreement and CI calculation
我有以下数据集
df <- data.frame(Nurse=c(1,2,4,3,5,4,3,2,4,3), Patient=c(2,3,5,4,4,4,3,3,2,3))
其中,对于每一行,护士都会对疾病的严重程度进行评分,而患者会对其疾病的严重程度进行自我评分(从 1 到 5)。
每行代表不同的患者和不同的事件。
我如何计算护士和患者之间的 kappa 率一致性并计算相关的 CI?
我已经试用了
kappa2(df,weight = "equal")
但不提供置信区间。
尝试使用 psych
库,它给出 CI:
df <- data.frame(Nurse=c(1,2,4,3,5,4,3,2,4,3), Patient=c(2,3,5,4,4,4,3,3,2,3))
psych::cohen.kappa(df)
# Call: cohen.kappa1(x = x, w = w, n.obs = n.obs, alpha = alpha, levels = levels)
#
# Cohen Kappa and Weighted Kappa correlation coefficients and confidence boundaries
# lower estimate upper
# unweighted kappa -0.27 0.054 0.38
# weighted kappa 0.16 0.533 0.90
#
# Number of subjects = 10
我有以下数据集
df <- data.frame(Nurse=c(1,2,4,3,5,4,3,2,4,3), Patient=c(2,3,5,4,4,4,3,3,2,3))
其中,对于每一行,护士都会对疾病的严重程度进行评分,而患者会对其疾病的严重程度进行自我评分(从 1 到 5)。 每行代表不同的患者和不同的事件。
我如何计算护士和患者之间的 kappa 率一致性并计算相关的 CI?
我已经试用了
kappa2(df,weight = "equal")
但不提供置信区间。
尝试使用 psych
库,它给出 CI:
df <- data.frame(Nurse=c(1,2,4,3,5,4,3,2,4,3), Patient=c(2,3,5,4,4,4,3,3,2,3))
psych::cohen.kappa(df)
# Call: cohen.kappa1(x = x, w = w, n.obs = n.obs, alpha = alpha, levels = levels)
#
# Cohen Kappa and Weighted Kappa correlation coefficients and confidence boundaries
# lower estimate upper
# unweighted kappa -0.27 0.054 0.38
# weighted kappa 0.16 0.533 0.90
#
# Number of subjects = 10