Hive 为 Fluentd Apache 日志数据创建 table 语句

Hive create table statement for Fluentd Apache log data

我正在使用 Fluentd 在 HDFS 中捕获和整合 Apache 日志数据。我将代理配置为将数据写入 HDFS,即 /etc/td-agent/td-agent.conf 文件包含:

<source>
  type tail
  path /var/log/httpd/access_log
  pos_file /var/log/td-agent/httpd-access.log.pos
  tag apache.access
  format apache2
</source>

<match apache.access>
  type webhdfs
  host fqdn.of.name.node
  port 50070
  path /data/access_logs/access.log.%Y%m%d_%H.${hostname}.log
  flush_interval 10s
</match>

我根据 Fluentd documentation 启用了 HDFS 追加。数据流完美地流过。在过去的几周里,它一直在无故障地传输数百万笔交易。

数据存储在包含如下行的文件中:

2015-01-10T17:00:00Z    apache.access   {"host":"155.96.21.4","user":null,"method":"GET","path":"/somepage/index.html","code":200,"size":8192,"referer":null,"agent":"Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/7.0; SLCC2; .NET CLR 2.0.50727; .NET4.0C; .NET4.0E)"}

每行包含三个制表符分隔的元素:

  1. 时间戳
  2. 一个识别标签
  3. JSON 包含 key/value 对 Apache 日志中的列

我正在尝试创建一个 Hive table,但不确定如何处理它是制表符分隔字符串和每行 JSON 的混合这一事实。我知道 Hive 有一个 JSON 反序列化器,但我认为这行不通,因为记录不是纯 JSON.

有人对如何为该数据编写 create table 语句有什么建议吗?

尝试将以下参数添加到您的 out_wedhdfs 配置中:

output_data_type json

这应该记录在案。我会尽快更新文档。