Cassandra 跟踪和客户端延迟之间的差异

Discrepancy between Cassandra trace and client-side latency

我们使用的是 Cassandra 2.0.15,并且看到所有应用程序主机定期(大约每 3 分钟)出现巨大的读取延迟(>60 秒)。我们测量了调用 session.execute(stmt) 前后的延迟。同时,Cassandra 跟踪报告持续时间 <1s。我们还 运行,在一个循环中,在那些峰值延迟时间内通过来自同一主机的 cqlsh 进行查询,并且 cqlsh 总是在 1 秒内返回。什么可以解释 Java 驱动程序级别的这种差异?

-- 编辑:回复评论--

Cassandra 服务器 JVM 设置:-XX:+CMSClassUnloadingEnabled -XX:+UseThreadPriorities -XX:ThreadPriorityPolicy=42 -XX:+HeapDumpOnOutOfMemoryError -Xss256k -XX:StringTableSize=1000003 -Xms32G -Xmx32G -XX:+UseG1GC -Djava.net.preferIPv4Stack=true -Dcassandra.jmx.local.port=7199 -XX:+DisableExplicitGC

客户端 GC 可以忽略不计(下图)。客户端设置:-Xss256k -Xms4G -Xmx4G,Cassandra驱动版本为2.1.7.1

客户端测量代码:

val selectServiceNames = session.prepare(QueryBuilder.select("service_name").from("service_names"))

override def run(): Unit = {
  val start = System.currentTimeMillis()
  try {
    val resultSet = session.execute(selectServiceNames.bind())
    val serviceNames = resultSet.all()
    val elapsed = System.currentTimeMillis() - start
    latency.add(elapsed) // emits metric to statsd
    if (elapsed > 10000) {
      log.info("Canary2 sensed high Cassandra latency: " + elapsed + "ms")
    }
  } catch {
    case e: Throwable =>
      log.error(e, "Canary2 select failed")
  } finally {
    Thread.sleep(100)
    schedule()
  }
}

集群构建代码:

def createClusterBuilder(): Cluster.Builder = {
  val builder = Cluster.builder()
  val contactPoints = parseContactPoints()
  val defaultPort = findConnectPort(contactPoints)
  builder.addContactPointsWithPorts(contactPoints)
  builder.withPort(defaultPort) // This ends up config.protocolOptions.port
  if (cassandraUsername.isDefined && cassandraPassword.isDefined)
    builder.withCredentials(cassandraUsername(), cassandraPassword())
  builder.withRetryPolicy(ZipkinRetryPolicy.INSTANCE)
  builder.withLoadBalancingPolicy(new TokenAwarePolicy(new LatencyAwarePolicy.Builder(new RoundRobinPolicy()).build()))
}

还有一个我无法解释的观察结果。我 运行 两个线程在一个循环中以相同的方式(如上所述)执行相同的查询,唯一的区别是黄色线程在查询之间休眠 100 毫秒,而绿色线程在查询之间休眠 60 秒。绿色线程比黄色线程更频繁地达到低延迟(低于 1 秒)。

当您获取组件进行自我测试时,这是一个常见问题。

  • 您可能会遇到相关工具看不到的延迟。
  • 您的组件不知道请求应该何时开始。
  • 当 JVM 停止时,这可以防止您看到您尝试测量的延迟。

最有可能的解释是第二种。假设您有 100 个任务的队列,但由于系统 运行 缓慢,每个任务需要 1 秒。您在内部为每个任务计时,它看到它花了 1 秒,但是将 100 个任务添加到队列中,第一个任务在 0 秒后开始,但最后一个在 99 秒后开始,然后报告它花了 1 秒,但从您的角度来看完成需要 100 秒,其中 99 秒等待开始。

结果到达您时也可能会出现延迟,但这种可能性较小,除非您在处理结果时执行的操作多于数据库所需的操作。也就是说,您可能认为瓶颈在服务器上。

我将问题追踪到来自远程数据中心的节点上的查询超时。该集群在两个 DC 中有节点,但密钥空间仅在本地 DC 内复制,因此甚至考虑删除节点也是令人惊讶的。我能够将延迟降低

  1. 从 ONE 更改为 LOCAL_ONE 一致性和
  2. 从普通的循环负载均衡器更改为 DC 感知负载均衡器(也使用延迟感知和令牌感知)。

我仍然觉得 Java 驱动程序中有一个错误,它试图使用来自远程数据中心的节点作为协调节点,而该数据中心显然不存在键空间。此外,即使这在某种程度上是不可能的,我也使用了延迟感知策略,它应该将远程 DC 节点排除在考虑范围之外。