将 Adobe Analytics 连接到 MYSQL
Connect Adobe Analytics to MYSQL
我正在尝试将从 Adobe Analytics 收集的数据连接到我的 MYSQL 本地实例,这可能吗?如果是这样,这样做的方法是什么?
无法直接将您的 mysql 数据库与 AA 连接、进行查询或其他任何操作。
以下只是为您指明大致方向的一些顶级信息。进入细节太长而且涉及到这里的答案。但下面我将列出一些您可以从 Adobe Analytics 中获取数据的选项。
哪种方法最好在很大程度上取决于您希望从 AA 中获取哪些数据以及您希望在本地数据库中使用这些数据做什么。但总的来说,我按照设置内容的难易程度列出了它们,并在收到文件后对它们进行了一些处理,以便将它们放入您的数据库中。
第一个选项是在 AA 界面中,安排数据定期 FTP 发送给您。这可以是来自报告界面或数据仓库的预定报告,可以以多种格式提供,但最常见的是 CSV 文件格式。这会将 AA 处理过的数据导出给您。含义、聚合指标等。总的来说,设置和解析导出的 CSV 文件非常容易。但是有很多关于它的caveats/limitations。但这在很大程度上取决于您的具体目标。
第二种选择是利用他们的 API 端点以 JSON 格式发出请求和接收响应。也可以接收 XML 格式,但我建议不要这样做。您将获得与上述类似的数据,但它比计划的更按需。这种方法需要你付出更多的努力才能真正获取数据,但它为你提供了更多 power/flexibility 来按需获取数据、构建接口(如果与你相关)等。但它也带有一些与第一个选项相同的 caveats/limitations,因为数据已经是 processed/aggregated。
第三个选项是安排从 AA 界面导出数据源。这将向您发送 CSV 文件,其中包含未聚合的、大部分未处理的原始命中数据。这是您最接近发送到 Adobe 收集服务器的数据,而 Adobe 不对它做任何事情,但它不是 100% 像服务器请求日志或其他东西。在不知道有关您最终希望如何处理数据的任何详细信息的情况下,除了将其放在本地数据库中之外,从表面上看,这可能是您想要的选项。设置预定导出非常简单,但解析接收到的文件可能会让人头疼。您会得到包含原始数据的文件和很多列,这些列包含各种不同的值,然后您会得到这些其他文件,这些文件是列和其中值的查找表。将它们拼凑在一起有点令人头疼,但这是可行的。真正的问题是文件大小。这些是原始命中数据文件,即使是中等流量的站点也会每天甚至每小时生成数 GB 的大文件。因此,如果您尝试走这条路,带宽、磁盘 space 和您的服务器处理能力都是需要考虑的因素。
我正在尝试将从 Adobe Analytics 收集的数据连接到我的 MYSQL 本地实例,这可能吗?如果是这样,这样做的方法是什么?
无法直接将您的 mysql 数据库与 AA 连接、进行查询或其他任何操作。
以下只是为您指明大致方向的一些顶级信息。进入细节太长而且涉及到这里的答案。但下面我将列出一些您可以从 Adobe Analytics 中获取数据的选项。
哪种方法最好在很大程度上取决于您希望从 AA 中获取哪些数据以及您希望在本地数据库中使用这些数据做什么。但总的来说,我按照设置内容的难易程度列出了它们,并在收到文件后对它们进行了一些处理,以便将它们放入您的数据库中。
第一个选项是在 AA 界面中,安排数据定期 FTP 发送给您。这可以是来自报告界面或数据仓库的预定报告,可以以多种格式提供,但最常见的是 CSV 文件格式。这会将 AA 处理过的数据导出给您。含义、聚合指标等。总的来说,设置和解析导出的 CSV 文件非常容易。但是有很多关于它的caveats/limitations。但这在很大程度上取决于您的具体目标。
第二种选择是利用他们的 API 端点以 JSON 格式发出请求和接收响应。也可以接收 XML 格式,但我建议不要这样做。您将获得与上述类似的数据,但它比计划的更按需。这种方法需要你付出更多的努力才能真正获取数据,但它为你提供了更多 power/flexibility 来按需获取数据、构建接口(如果与你相关)等。但它也带有一些与第一个选项相同的 caveats/limitations,因为数据已经是 processed/aggregated。
第三个选项是安排从 AA 界面导出数据源。这将向您发送 CSV 文件,其中包含未聚合的、大部分未处理的原始命中数据。这是您最接近发送到 Adobe 收集服务器的数据,而 Adobe 不对它做任何事情,但它不是 100% 像服务器请求日志或其他东西。在不知道有关您最终希望如何处理数据的任何详细信息的情况下,除了将其放在本地数据库中之外,从表面上看,这可能是您想要的选项。设置预定导出非常简单,但解析接收到的文件可能会让人头疼。您会得到包含原始数据的文件和很多列,这些列包含各种不同的值,然后您会得到这些其他文件,这些文件是列和其中值的查找表。将它们拼凑在一起有点令人头疼,但这是可行的。真正的问题是文件大小。这些是原始命中数据文件,即使是中等流量的站点也会每天甚至每小时生成数 GB 的大文件。因此,如果您尝试走这条路,带宽、磁盘 space 和您的服务器处理能力都是需要考虑的因素。