在构建 Power BI 可视化之前,哪个是进行中间数据处理的最佳位置?

Which is the best place to do intermediate Data Processing before building Power BI Visualisation?

这是一个新手问题。目前,我从 Excel 连接到 SSAS 服务,并从多维立方体取回数据。执行一些计算(使用多维数据集数据和一个或两个数字在 excel 中进行硬编码)和假设分析,并针对日历年的特定周(第 2 周 - 2022 年 1 月 3 日)过滤数据- 2022 年 1 月 9 日)并移动到另一个选项卡,它构成了 Power BI 报告的基础以及原始多维数据集数据。

由于这是一份每周报告,因此必须有人打开 excel,从多维数据集中刷新数据,使用目标搜索器执行假设分析,然后将其移至另一个 sheet,等刷新 Power BI 之前。这是当前的设置,我想 simplify/automate 这样做,但不会使 Power BI 报告过载,因为它需要永远刷新或加载。

我的问题:如果多维立方体数据和Power BI之间有计算,应该放在哪里?我应该使用所有这些计算使 Power BI 报告复杂化,还是将计算和逻辑移到其他地方,例如将连接到 SSAS 的 Python 程序(我对 Python 有点熟悉)。一位同事告诉我考虑使用 Databricks 运行 Python 代码。

选项:

  1. 在 Power BI 中执行所有计算。尚未测试报告可以处理这个问题的程度。

  2. 在其他地方进行计算,例如在 Databricks 上。还没有 Databricks。我可以从本地 Jupyter 笔记本开始。我担心我是否会 运行 内存不足。

在这种情况下,best/industry 的做法是什么?人们担心会使 Power BI 中的表示层复杂化,并影响大量 Powe BI 报告的用户体验。

一般来说,您需要多维数据集中的所有逻辑并使用 Power BI 进行报告。如果您不能将逻辑放入多维数据集中,我宁愿在 Power BI 中进行,以消除其他故障点、手动步骤或计时问题。