是否可以计算 GCP Cloud Logging 中的日志消息数?
Is it possible to count the number of log messages in GCP Cloud Logging?
我目前正在尝试调查我们的一个 GCP 云功能上的一些奇怪的 activity,真正有用的一件事是知道该云功能在给定时间段内生成的日志消息的数量 -这将使我们能够每天进行比较,看看是否存在任何显着差异。
请注意,相关时间段发生在过去,我们没有将日志捕获到 BigQuery,也没有任何基于日志的指标。
有没有可以统计某个时间段内从云函数输出的日志消息的数量?
我的直接想法是将有问题的 Cloud Logging 日志汇入 BigQuery,然后 运行 针对 BQ 进行查询。但是,如果日志是过去写入的,那么您不能将这些历史日志直接下沉到 BQ 中。您可以做的是 运行 一个云日志过滤器和 return 您感兴趣的日志超集,并将它们写入 GCS 存储桶对象。从那里,您可以在 Jupyter notebook 中使用 Pandas 执行处理,或手动将它们提取到 BQ table 中,然后 运行 您的查询。
在最高级别,开始查看您的云日志并验证它们是否包含您可以使用的信息。计划如何查询该数据以生成所需的答案。
我目前正在尝试调查我们的一个 GCP 云功能上的一些奇怪的 activity,真正有用的一件事是知道该云功能在给定时间段内生成的日志消息的数量 -这将使我们能够每天进行比较,看看是否存在任何显着差异。
请注意,相关时间段发生在过去,我们没有将日志捕获到 BigQuery,也没有任何基于日志的指标。
有没有可以统计某个时间段内从云函数输出的日志消息的数量?
我的直接想法是将有问题的 Cloud Logging 日志汇入 BigQuery,然后 运行 针对 BQ 进行查询。但是,如果日志是过去写入的,那么您不能将这些历史日志直接下沉到 BQ 中。您可以做的是 运行 一个云日志过滤器和 return 您感兴趣的日志超集,并将它们写入 GCS 存储桶对象。从那里,您可以在 Jupyter notebook 中使用 Pandas 执行处理,或手动将它们提取到 BQ table 中,然后 运行 您的查询。
在最高级别,开始查看您的云日志并验证它们是否包含您可以使用的信息。计划如何查询该数据以生成所需的答案。