table 本身和 运行 一些 window 函数的完全外连接
Full outer join on a table itself and run some window functions
背景
我有一些 ETL 作业每小时处理一次实时日志文件。每当系统产生一个新事件时,它都会对所有历史事件摘要(如果存在)进行快照,并将其与当前事件一起记录下来。然后将数据加载到Redshift中。
例子
table 如下所示:
+------------+--------------+---------+-----------+-------+-------+
| current_id | current_time | past_id | past_time | freq1 | freq2 |
+------------+--------------+---------+-----------+-------+-------+
| 2 | time2 | 1 | time1 | 13 | 5 |
| 3 | time3 | 1 | time1 | 13 | 5 |
| 3 | time3 | 2 | time2 | 2 | 1 |
| 4 | time4 | 1 | time1 | 13 | 5 |
| 4 | time4 | 2 | time2 | 2 | 1 |
| 4 | time4 | 3 | time3 | 1 | 1 |
+------------+--------------+---------+-----------+-------+-------+
以上就是这样 table:
- 时间 1:事件 1 发生了。系统拍了一张快照,但没有任何记录。
- 时间2:事件2发生了。系统拍摄快照并记录事件 1.
- 时间 3:事件 3 发生了。系统拍摄快照并记录事件 1 和 2。
- time4: 事件 4 发生了。系统拍摄快照并记录事件 1、2 和 3。
期望的结果
我需要将数据转换为以下格式以便进行一些分析:
+----+------------+-------+-------+
| id | event_time | freq1 | freq2 |
+----+------------+-------+-------+
| 1 | time1 | 0 | 0 |
| 2 | time2 | 13 | 5 | -- 13 | 5
| 3 | time3 | 15 | 6 | -- 13 + 2 | 5 + 1
| 4 | time4 | 16 | 7 | -- 15 + 1 | 6 + 1
+----+------------+-------+-------+
基本上,新的freq1和freq2是滞后的freq1和freq2的累加和。
我的想法
我正在考虑 full outer join
current_id 和 past_id 并实现首先是以下结果:
+----+------------+-------+-------+
| id | event_time | freq1 | freq2 |
+----+------------+-------+-------+
| 1 | time1 | 13 | 5 |
| 2 | time2 | 2 | 1 |
| 3 | time3 | 1 | 1 |
| 4 | time4 | null | null |
+----+------------+-------+-------+
然后我可以执行 lag over()
的 window 功能,然后 sum over()
。
问题
- 这是正确的做法吗?有没有更有效的方法来做到这一点?这只是实际数据的一小部分样本,因此性能可能是一个问题。
- 我的查询总是返回很多重复的值,所以我不确定哪里出了问题。
解决方案
@GordonLinoff 的回答对于上述用例是正确的。我正在添加一些小的更新,以便让它在我的实际 table 上运行。唯一的区别是我的 event_id 是一些 36 个字符的 Java UUID 而 event_time 是时间戳。
select distinct past_id, past_time, 0 as freq1, 0 as freq2
from (
select past_id, past_time,
row_number() over (partition by current_id order by current_time desc) as seqnum
from t
) a
where a.seqnum = 1
union all
select current_id, current_time,
sum(freq1) over (order by current_time rows unbounded preceding) as freq1,
sum(freq2) over (order by current_time rows unbounded preceding) as freq2
from (
select current_id, current_time, freq1, freq2,
row_number() over (partition by current_id order by past_id desc) as seqnum
from t
) b
where b.seqnum = 1;
我认为您需要 union all
以及 window 函数。这是一个例子:
select min(past_id) as id, min(past_time) as event_time, 0 as freq1, 0 as freq2
from t
union all
(select current_id, current_time,
sum(freq1) over (order by current_time),
sum(freq2) over (order by current_time)
from (select current_id, current_time, freq1, freq2,
row_number() over (partition by current_id order by past_id desc) as seqnum
from t
) t
where seqnum = 1
);
您的数据在您的快照中的方式 table,我认为以下 SQL 应该可以为您提供您在发布的期望结果中寻找的内容
SELECT 1 AS id
,"time1" AS event_time
,0 AS freq1
,0 AS freq2
UNION
SELECT T.id
,T.current_time AS event_time
,SUM(T.freq1) AS freq1
,SUM(T.freq2) AS freq2
FROM snapshot AS T
GROUP
BY T.id
,T.current_name
上面 UNION
中的第一个 SELECT
是为了让您可以获得 time1
的第一条记录,因为它在您的基础 table 中并没有真正的条目] 它包含所有快照。它没有 FROM
因为我们只选择变量,如果 Redshift 不支持它你可能需要寻找等同于 DUAL
table 在 Oracle 中。
希望这对您有所帮助..
背景
我有一些 ETL 作业每小时处理一次实时日志文件。每当系统产生一个新事件时,它都会对所有历史事件摘要(如果存在)进行快照,并将其与当前事件一起记录下来。然后将数据加载到Redshift中。
例子
table 如下所示:
+------------+--------------+---------+-----------+-------+-------+
| current_id | current_time | past_id | past_time | freq1 | freq2 |
+------------+--------------+---------+-----------+-------+-------+
| 2 | time2 | 1 | time1 | 13 | 5 |
| 3 | time3 | 1 | time1 | 13 | 5 |
| 3 | time3 | 2 | time2 | 2 | 1 |
| 4 | time4 | 1 | time1 | 13 | 5 |
| 4 | time4 | 2 | time2 | 2 | 1 |
| 4 | time4 | 3 | time3 | 1 | 1 |
+------------+--------------+---------+-----------+-------+-------+
以上就是这样 table:
- 时间 1:事件 1 发生了。系统拍了一张快照,但没有任何记录。
- 时间2:事件2发生了。系统拍摄快照并记录事件 1.
- 时间 3:事件 3 发生了。系统拍摄快照并记录事件 1 和 2。
- time4: 事件 4 发生了。系统拍摄快照并记录事件 1、2 和 3。
期望的结果
我需要将数据转换为以下格式以便进行一些分析:
+----+------------+-------+-------+
| id | event_time | freq1 | freq2 |
+----+------------+-------+-------+
| 1 | time1 | 0 | 0 |
| 2 | time2 | 13 | 5 | -- 13 | 5
| 3 | time3 | 15 | 6 | -- 13 + 2 | 5 + 1
| 4 | time4 | 16 | 7 | -- 15 + 1 | 6 + 1
+----+------------+-------+-------+
基本上,新的freq1和freq2是滞后的freq1和freq2的累加和。
我的想法
我正在考虑 full outer join
current_id 和 past_id 并实现首先是以下结果:
+----+------------+-------+-------+
| id | event_time | freq1 | freq2 |
+----+------------+-------+-------+
| 1 | time1 | 13 | 5 |
| 2 | time2 | 2 | 1 |
| 3 | time3 | 1 | 1 |
| 4 | time4 | null | null |
+----+------------+-------+-------+
然后我可以执行 lag over()
的 window 功能,然后 sum over()
。
问题
- 这是正确的做法吗?有没有更有效的方法来做到这一点?这只是实际数据的一小部分样本,因此性能可能是一个问题。
- 我的查询总是返回很多重复的值,所以我不确定哪里出了问题。
解决方案
@GordonLinoff 的回答对于上述用例是正确的。我正在添加一些小的更新,以便让它在我的实际 table 上运行。唯一的区别是我的 event_id 是一些 36 个字符的 Java UUID 而 event_time 是时间戳。
select distinct past_id, past_time, 0 as freq1, 0 as freq2
from (
select past_id, past_time,
row_number() over (partition by current_id order by current_time desc) as seqnum
from t
) a
where a.seqnum = 1
union all
select current_id, current_time,
sum(freq1) over (order by current_time rows unbounded preceding) as freq1,
sum(freq2) over (order by current_time rows unbounded preceding) as freq2
from (
select current_id, current_time, freq1, freq2,
row_number() over (partition by current_id order by past_id desc) as seqnum
from t
) b
where b.seqnum = 1;
我认为您需要 union all
以及 window 函数。这是一个例子:
select min(past_id) as id, min(past_time) as event_time, 0 as freq1, 0 as freq2
from t
union all
(select current_id, current_time,
sum(freq1) over (order by current_time),
sum(freq2) over (order by current_time)
from (select current_id, current_time, freq1, freq2,
row_number() over (partition by current_id order by past_id desc) as seqnum
from t
) t
where seqnum = 1
);
您的数据在您的快照中的方式 table,我认为以下 SQL 应该可以为您提供您在发布的期望结果中寻找的内容
SELECT 1 AS id
,"time1" AS event_time
,0 AS freq1
,0 AS freq2
UNION
SELECT T.id
,T.current_time AS event_time
,SUM(T.freq1) AS freq1
,SUM(T.freq2) AS freq2
FROM snapshot AS T
GROUP
BY T.id
,T.current_name
上面 UNION
中的第一个 SELECT
是为了让您可以获得 time1
的第一条记录,因为它在您的基础 table 中并没有真正的条目] 它包含所有快照。它没有 FROM
因为我们只选择变量,如果 Redshift 不支持它你可能需要寻找等同于 DUAL
table 在 Oracle 中。
希望这对您有所帮助..