评分者间一致性和 CI 计算

Interrater agreement and CI calculation

我有以下数据集

df <- data.frame(Nurse=c(1,2,4,3,5,4,3,2,4,3), Patient=c(2,3,5,4,4,4,3,3,2,3))

其中,对于每一行,护士都会对疾病的严重程度进行评分,而患者会对其疾病的严重程度进行自我评分(从 1 到 5)。 每行代表不同的患者和不同的事件。

我如何计算护士和患者之间的 kappa 率一致性并计算相关的 CI?

我已经试用了

kappa2(df,weight = "equal")

但不提供置信区间。

尝试使用 psych 库,它给出 CI:

df <- data.frame(Nurse=c(1,2,4,3,5,4,3,2,4,3), Patient=c(2,3,5,4,4,4,3,3,2,3))

psych::cohen.kappa(df)

# Call: cohen.kappa1(x = x, w = w, n.obs = n.obs, alpha = alpha, levels = levels)
# 
# Cohen Kappa and Weighted Kappa correlation coefficients and confidence boundaries 
#                   lower estimate upper
# unweighted kappa -0.27    0.054  0.38
# weighted kappa    0.16    0.533  0.90
# 
# Number of subjects = 10