卡桑德拉异常

Cassandra Exception

对于我当前的项目,我使用 Cassandra Db 来频繁获取数据。每秒至少会命中 30 个 Db 请求。对于每个请求,至少需要从 Db 获取 40000 行。以下是我当前的代码,此方法将 return 哈希映射。

 public Map<String,String> loadObject(ArrayList<Integer> tradigAccountList){

        com.datastax.driver.core.Session session;
        Map<String,String> orderListMap = new HashMap<>();
        List<ResultSetFuture> futures = new ArrayList<>();
        List<ListenableFuture<ResultSet>> Future;

        try {
            session =jdbcUtils.getCassandraSession();
            PreparedStatement statement = jdbcUtils.getCassandraPS(CassandraPS.LOAD_ORDER_LIST);

            for (Integer tradingAccount:tradigAccountList){
                futures.add(session.executeAsync(statement.bind(tradingAccount).setFetchSize(3000)));
            }
            Future = Futures.inCompletionOrder(futures);

            for (ListenableFuture<ResultSet> future : Future){
                for (Row row: future.get()){
                    orderListMap.put(row.getString("cliordid"), row.getString("ordermsg"));
                }
            }

        }catch (Exception e){
        }finally {
        }
        return orderListMap;
    }

我的数据请求查询是这样的, "SELECT cliordid,ordermsg FROM omsks_v1.ordersStringV1 WHERE tradacntid = ?"。 我的 Cassandra 集群有 2 个节点,每个节点有 32 个并发读写线程,我的 Db 模式如下

CREATE TABLE omsks_v1.ordersstringv1_copy1 (
    tradacntid int,
    cliordid text,
    ordermsg text,
    PRIMARY KEY (tradacntid, cliordid)
) WITH bloom_filter_fp_chance = 0.01
AND comment = ''
AND dclocal_read_repair_chance = 0.1
AND default_time_to_live = 0
AND gc_grace_seconds = 864000
AND max_index_interval = 2048
AND memtable_flush_period_in_ms = 0
AND min_index_interval = 128
AND read_repair_chance = 0.0
AND speculative_retry = '99.0PERCENTILE'
AND caching = {
    'keys' : 'ALL',
    'rows_per_partition' : 'NONE'
}
AND compression = {
    'sstable_compression' : 'LZ4Compressor'
}
AND compaction = {
    'class' : 'SizeTieredCompactionStrategy'
};

我的问题是 Cassandra 超时异常,如何优化我的代码来处理所有这些请求

如果附上该异常(Read/write 异常)的 snnipet 会更好。我假设您正在阅读超时。您正在尝试根据单个请求获取大型数据集。

For each request at least 40000 rows needed to fetch from Db

如果您有一个大记录并且结果集太大,如果无法在 Cassandra.yaml 中提到的时间限制内 return 编辑结果,它会抛出异常。

read_request_timeout_in_ms

您可以增加超时时间,但这不是一个好的选择。它可能会解决问题(可能不会抛出异常,但需要更多时间才能得到 return 结果)。

解决方案:对于大数据集,可以使用带限制的手动分页(范围查询)获得结果。

SELECT cliordid,ordermsg FROM omsks_v1.ordersStringV1 WHERE tradacntid > = ? and cliordid > ? limit ?;

或使用范围查询

SELECT cliordid,ordermsg FROM omsks_v1.ordersStringV1 WHERE tradacntid = ? and cliordid >= ? and cliordid <= ?;

这比获取整个结果集要快得多。

您也可以尝试减小提取大小。尽管它将 return 整个结果集。

public Statement setFetchSize(int fetchSize) 检查是否抛出异常。

setFetchSize controls the page size, but it doesn't control the maximum rows returned in a ResultSet.

还有一点需要注意:

tradigAccountList 的大小是多少?

一次请求太多也可能导致超时。 tradigAccountList 的大小和一次完成的大量读取请求(请求的负载平衡由 Cassandra 处理,可以处理多少请求取决于集群大小和其他一些因素)可能会导致此异常。

一些相关链接:

Cassandra read timeout

NoHostAvailableException With Cassandra & DataStax Java Driver If Large ResultSet