在 Hazelcast 分布式缓存中手动加载数据
Manually load data in Hazelcast distributed cache
我计划在我们的应用程序中使用 Hazelcast 作为分布式缓存。我们必须在缓存中加载大约 300 个条目的一些静态数据。我们计划仅使用嵌入式缓存拓扑。缓存不由任何数据库备份。所以唯一的数据来源就是缓存。所以我想知道是否可以通过某种方式手动加载缓存中的数据,而不是以编程方式可能与 Hazelcast 管理中心一起加载?
另外请表达您对当我跨不同数据中心部署应用程序时嵌入式拓扑是否适用于分布式缓存的看法?
从 Hazelcast 5.0 开始,SQL 可用作非代码选项,将数据从文件和 Kafka 加载到 Hazelcast 映射中。 SQL 命令可以从管理中心(SQL 浏览器)或从 ZIP 分发附带的 hz-cli
命令行工具执行。您可以使用 hz-cli
连接到以嵌入式方式启动的 Hazelcast 集群。
从文件加载数据到地图:
- 使用
CREATE MAPPING
将文件注册到 Hazelcast,示例:https://docs.hazelcast.com/hazelcast/5.0-beta-1/sql/file-connector.html
- 定义目标地图的结构和序列化选项。示例:https://docs.hazelcast.com/hazelcast/5.0-beta-1/sql/imap-connector.html
- 运行 从文件读取并写入地图的查询。示例:
SINK INTO myMap
SELECT id, ticker, price, amount FROM myFiles;
示例:https://docs.hazelcast.com/hazelcast/5.0-beta-1/pipelines/learn-sql.html
我计划在我们的应用程序中使用 Hazelcast 作为分布式缓存。我们必须在缓存中加载大约 300 个条目的一些静态数据。我们计划仅使用嵌入式缓存拓扑。缓存不由任何数据库备份。所以唯一的数据来源就是缓存。所以我想知道是否可以通过某种方式手动加载缓存中的数据,而不是以编程方式可能与 Hazelcast 管理中心一起加载?
另外请表达您对当我跨不同数据中心部署应用程序时嵌入式拓扑是否适用于分布式缓存的看法?
从 Hazelcast 5.0 开始,SQL 可用作非代码选项,将数据从文件和 Kafka 加载到 Hazelcast 映射中。 SQL 命令可以从管理中心(SQL 浏览器)或从 ZIP 分发附带的 hz-cli
命令行工具执行。您可以使用 hz-cli
连接到以嵌入式方式启动的 Hazelcast 集群。
从文件加载数据到地图:
- 使用
CREATE MAPPING
将文件注册到 Hazelcast,示例:https://docs.hazelcast.com/hazelcast/5.0-beta-1/sql/file-connector.html - 定义目标地图的结构和序列化选项。示例:https://docs.hazelcast.com/hazelcast/5.0-beta-1/sql/imap-connector.html
- 运行 从文件读取并写入地图的查询。示例:
SINK INTO myMap
SELECT id, ticker, price, amount FROM myFiles;
示例:https://docs.hazelcast.com/hazelcast/5.0-beta-1/pipelines/learn-sql.html