Hive 结果保存为 parquet 文件

Hive results save as parquet file

我正在尝试从 Hive table 创建一个 snappy.parquet 文件。它是一个大分区 table 只需要它的一小部分。这样做:

set parquet.compression=SNAPPY;
set hive.exec.compress.output=true;
set hive.exec.compress.intermediate=true;
set hive.exec.parallel=true;
set mapred.output.compress=true;
set mapreduce.output.fileoutputformat.compress=true;
set mapred.compress.map.output=true;
set mapreduce.map.output.compress=true;
set mapred.output.compression.type=BLOCK;
set mapreduce.output.fileoutputformat.compress.type=BLOCK;
set io.seqfile.compression.type = BLOCK;
insert overwrite directory 'EXTERNAL_DIRECTORY' STORED AS PARQUET select * from SOURCE_TABLE;

它使用以下架构创建 000000_0 文件:

message hive_schema {
optional int32 _col0;
optional binary _col1 (UTF8);
optional binary _col2 (UTF8);
optional binary _col3 (UTF8);
optional binary _col4 (UTF8);
optional binary _col5 (UTF8);
optional binary _col6 (UTF8);
optional binary _col7 (UTF8);
optional int64 _col8;
optional int64 _col9;
optional int64 _col10;
)

丢失 SOURCE_TABLE 中的所有列名称。我如何正确保存它以便以后可以将其用作配置单元 table?

我会通过 selecting 您所追求的源分区中的所有数据,为您的数据集创建一个新的外部 table。然后你就会有一个可以使用的 table 和文件。到目前为止,您不能使用外部 table 执行 create table as select 语句,因此您需要先创建 table,然后将数据加载到其中.

create external table yourNewTable ( use your source table DDL...)
  stored as parquet location '/yourNewLocation';

insert into yourNewTable
  select * from yourSourceTable where yourPartitionedFieldNames = 'desiredPartitionName';