使用 logstash 将数据流式传输到 amazon elasticsearch?

Stream data to amazon elasticsearch using logstash?

所以我启动了一个 2 实例 Amazon Elasticsearch 集群。

我已经安装了 logstash-output-amazon_es 插件。这是我的 logstash 配置文件:

input {
    file {
        path => "/Users/user/Desktop/user/logs/*"
    }
}

filter {
  grok {
    match => {
      "message" => '%{COMMONAPACHELOG} %{QS}%{QS}'
    }
  }

  date {
    match => [ "timestamp", "dd/MMM/YYYY:HH:mm:ss Z" ]
    locale => en
  }

  useragent {
    source => "agent"
    target => "useragent"
  }
}

output {
    amazon_es {
        hosts => ["foo.us-east-1.es.amazonaws.com"]
        region => "us-east-1"
        index => "apache_elk_example"
        template => "./apache_template.json"
        template_name => "apache_elk_example"
        template_overwrite => true
    }
}

现在我是 运行 来自我的终端的:

/usr/local/opt/logstash/bin/logstash -f apache_logstash.conf

我收到错误:

Failed to install template: undefined method `credentials' for nil:NilClass {:level=>:error}

我想我完全错了。基本上我只想通过 logstash 将一些虚拟日志输入提供给我的 amazon elasticsearch 集群。我该如何进行?

编辑存储类型是实例并且访问策略设置为所有人都可以访问。

编辑

output {
    elasticsearch {
        hosts => ["foo.us-east-1.es.amazonaws.com"]
        ssl => true
    index => "apache_elk_example"
         template => "./apache_template.json"
          template_name => "apache_elk_example"
          template_overwrite => true

    }
}

您需要提供以下两个参数:

  • aws_access_key_id
  • aws_secret_access_key

尽管它们被描述为可选参数,但代码中有 one comment 明确说明。

aws_access_key_id and aws_secret_access_key are currently needed for this >plugin to work right. Subsequent versions will have the credential resolution logic as follows:

我能够 运行 在没有 AccessKeys 的情况下与 AWS Elasticsearch 一起登录,我在 ES 服务中配置了策略。

如果您手动启动 logstash,它可以在没有密钥的情况下工作,如果您将 logstash 作为服务启动,插件就可以工作。

https://github.com/awslabs/logstash-output-amazon_es/issues/34

我也遇到了同样的问题,我通过在主机名后面提到端口来解决它。 发生这种情况是因为主机名 hosts => ["foo.us-east-1.es.amazonaws.com"] 指向 foo.us-east-1.es.amazonaws.com:9200,这不是 aws elasticsearch 的默认端口。因此,通过将主机名更改为 foo.us-east-1.es.amazonaws.com:80 可以解决问题。