PHOENIX SPARK - 用于 BulkLoad 的 DataFrame
PHOENIX SPARK - DataFrame for BulkLoad
作为 Spark 作业的结果,我有 1 亿条记录要插入 HBase table (PHOENIX)。我想知道如果我将它转换为 Dataframe 并保存它,它会执行批量加载(或者)它不是将数据写入 Phoenix HBase 的有效方法 table
发件人:乔什·马霍宁
日期:2016 年 5 月 18 日星期三 10:29 下午
主题:回复:PHOENIX SPARK - BulkLoad 的 DataFrame
收件人:用户@phoenix.apache.org
嗨,
Spark 集成使用 Phoenix MapReduce 框架,在后台将这些框架转换为分布在多个工作人员中的 UPSERT。
您应该尝试这两种方法,看看哪种方法最适合您的用例。对于它的价值,我们通常使用 Spark 集成对这些数据大小执行加载/保存操作。
作为 Spark 作业的结果,我有 1 亿条记录要插入 HBase table (PHOENIX)。我想知道如果我将它转换为 Dataframe 并保存它,它会执行批量加载(或者)它不是将数据写入 Phoenix HBase 的有效方法 table
发件人:乔什·马霍宁
日期:2016 年 5 月 18 日星期三 10:29 下午
主题:回复:PHOENIX SPARK - BulkLoad 的 DataFrame
收件人:用户@phoenix.apache.org
嗨,
Spark 集成使用 Phoenix MapReduce 框架,在后台将这些框架转换为分布在多个工作人员中的 UPSERT。
您应该尝试这两种方法,看看哪种方法最适合您的用例。对于它的价值,我们通常使用 Spark 集成对这些数据大小执行加载/保存操作。