PostgreSQL 不在过滤的多重排序查询上使用索引

PostgreSQL not using index on a filtered multiple sort query

我有一个很简单的table

CREATE TABLE approved_posts (
  project_id INTEGER,
  feed_id INTEGER,
  post_id INTEGER,
  approved_time TIMESTAMP NOT NULL,
  post_time TIMESTAMP NOT NULL,
  PRIMARY KEY (project_id, feed_id, post_id)
)

我正在尝试优化此查询:

SELECT *
FROM approved_posts
WHERE feed_id IN (?, ?, ?)
AND project_id = ?
ORDER BY approved_time DESC, post_time DESC
LIMIT 1;

查询优化器正在获取与谓词匹配的每个 approved_post,对所有 100k 个结果进行排序,并返回它找到的最上面的一个。

我在 project_id, feed_id, approved_time, post_time 上确实有一个索引,它会在我以下任一情况下使用:
A. 删除按 post_time
排序 B.IN (?, ?, ?) 替换为单个 = ?.
然后它简单地进行反向索引扫描以获得第一个结果并且速度非常快。

选项A:

 Limit  (cost=0.43..6.57 rows=1 width=24) (actual time=0.101..0.101 rows=1 loops=1)
   ->  Index Scan Backward using approved_posts_approved_time_idx on approved_posts p  (cost=0.43..840483.02 rows=136940 width=24) (actual time=0.100..0.100 rows=1 loops=1)
     Filter: (feed_id = ANY ('{73321,73771,73772,73773,73774}'::integer[]))
     Rows Removed by Filter: 37
 Total runtime: 0.129 ms

选项B:

Limit  (cost=0.43..3.31 rows=1 width=24) (actual time=0.065..0.065 rows=1 loops=1)
   ->  Index Scan Backward using approved_posts_full_pagination_index on approved_posts p  (cost=0.43..126884.70 rows=44049 width=24) (actual time=0.063..0.063 rows=1 loops=1)
     Index Cond: ((project_id = 148772) AND (feed_id = 73321))
 Total runtime: 0.092 ms

但如果没有这些调整,它的性能就不会那么好...

Limit  (cost=169792.16..169792.17 rows=1 width=24) (actual time=510.225..510.225 rows=1 loops=1)
   ->  Sort  (cost=169792.16..170118.06 rows=130357 width=24) (actual time=510.224..510.224 rows=1 loops=1)
     Sort Key: approved_time, post_time
     Sort Method: top-N heapsort  Memory: 25kB
     ->  Bitmap Heap Scan on approved_posts p  (cost=12324.41..169140.38 rows=130357 width=24) (actual time=362.210..469.387 rows=126260 loops=1)
           Recheck Cond: (feed_id = ANY ('{73321,73771,73772,73773,73774}'::integer[]))
           ->  Bitmap Index Scan on approved_posts_feed_id_idx  (cost=0.00..12291.82 rows=130357 width=0) (actual time=354.496..354.496 rows=126260 loops=1)
                 Index Cond: (feed_id = ANY ('{73321,73771,73772,73773,73774}'::integer[]))
Total runtime: 510.265 ms

我什至可以在这 5 个提要 ID 上添加条件索引,它会再次做正确的事情。

我目前最好的解决方案是将每个 feed_id 放在自己的查询中,然后在它们之间做大量的 UNION。但这并不能很好地扩展,因为我可能想 select 来自 30 个提要的前 500 个,拉入 15k 行并无缘无故地对它们进行排序。使用此策略管理偏移量也有些复杂。

有谁知道我如何在我的索引良好的数据上使用两种类型的 IN 子句并让 Postgres 做正确的事情?

我正在使用 Postgres 9.3.3。这是我的 indexes:

 "approved_posts_project_id_feed_id_post_id_key" UNIQUE CONSTRAINT, btree (project_id, feed_id, post_id)
 "approved_posts_approved_time_idx" btree (approved_time)
 "approved_posts_feed_id_idx" btree (feed_id)
 "approved_posts_full_pagination_index" btree (project_id, feed_id, approved_time, post_time)
 "approved_posts_post_id_idx" btree (post_id)
 "approved_posts_post_time_idx" btree (post_time)
 "approved_posts_project_id_idx" btree (project_id)

None 列可以为空。

这个 table 有 200 万行,分为 200 个提要 ID 和 19 个项目 ID。

这些是最常见的供稿 ID:

 feed_id | count  
---------+--------
   73607 | 558860
   73837 | 354018
   73832 | 220285
   73836 | 172664
   73321 | 118695
   73819 |  95999
   73821 |  75871
   73056 |  65779
   73070 |  54655
   73827 |  43710
   73079 |  36700
   73574 |  36111
   73055 |  25682
   73072 |  22596
   73589 |  19856
   73953 |  15286
   73159 |  13059
   73839 |   8925

根据每个 feedid/projectid 对的 min/max/avg 基数,我们有:

 min |  max   |          avg          
-----+--------+-----------------------
   1 | 559021 | 9427.9140271493212670

据我了解,如果第一个 "where" 不是密钥的第一部分,则不会使用该密钥。尝试将查询中 "where's" 的顺序切换为 project_id 和 feed_id.

有了 feed_id 的可能值列表,Postgres 很难找到最佳查询计划。每个 feed_id 可以与 1 - 559021 行相关联(根据您的数字)。 Postgres 目前还不够聪明,无法单独看到 LIMIT 1 特例的潜在优化。一个 UNION ALL(不仅仅是 UNION)的几个查询,每个查询有一个 feed_idLIMIT 1,加上另一个外部 LIMIT 1(就像你似乎已经尝试过的那样)演示潜力,但需要对可变数量的输入值进行复杂的查询串联。

还有另一种方法可以说服查询计划器它可以使用 索引扫描 从索引中为每个 feed_id 选择第一行:用LATERAL 加入:

SELECT a.*
FROM   (VALUES (?), (?), (?)) AS t(feed_id)
     , LATERAL (
   SELECT *
   FROM   approved_posts
   WHERE  project_id = ?
   AND    feed_id = t.feed_id
   ORDER  BY approved_time DESC, post_time DESC
   LIMIT  1
   ) a
ORDER  BY approved_time DESC, post_time DESC
LIMIT  1;

或者,对于 feed_id 的可变数量的值更方便:

SELECT a.*
FROM   unnest(?) AS t(feed_id)  -- provide int[] var
     , LATERAL ( ...

为变量传递一个整数数组,如'{123, 234, 345}'::int[]。这也可以通过使用 VARIADIC 参数的函数优雅地实现。然后你可以传递一个 integer 值的列表:

  • Pass multiple values in single parameter

您在 (project_id, feed_id, approved_time, post_time) 上的索引适用于此,因为 Postgres 向后扫描索引的速度几乎与向前扫描一样快,但 (project_id, feed_id, approved_time DESC, post_time DESC) 会更好。参见:

如果您不需要 return table 的所有列,甚至仅索引扫描也是一个选项。

您的列 approved_timepost_time 定义为 NOT NULL。否则,你必须做更多:

详细介绍 LATERAL 联接技术的相关答案:

  • Optimize GROUP BY query to retrieve latest record per user

为什么你的选项 A 有效?

仔细观察会发现两件事:

->  Index Scan Backward using approved_posts_approved_time_idx
    on approved_posts p (cost=0.43..840483.02 rows=136940 width=24)
                        (actual time=0.100..0.100 rows=1 loops=1)
     Filter: (feed_id = ANY ('{73321,73771,73772,73773,73774}'::integer[]))

大胆强调我的。

  1. 仅在 (approved_time) 上使用了一个不同的、较小的索引。
  2. feed_id 上没有 索引条件 (在这种情况下是不可能的),但是 过滤器 .

Postgres 选择了一个完全不同的策略:它从该索引中自下而上读取行 (Index Scan Backward),直到找到与您给定值之一匹配的行feed_id。由于您只有很少的项目和提要 (200 feed IDs and 19 project IDs),因此它很可能不必在第一次匹配之前丢弃太多行 - 这就是结果。这实际上使 更快更多feed_id,因为 "latest" 行较早找到 - 与我的第一种方法不同,后者对于 更少 值更快。

一个很有前途的替代策略!根据数据分布和查询中的提要,它可能比我的第一个解决方案更快 - 使用此索引启用它:

"approved_posts_foo_idx" btree (project_id, approved_time DESC, post_time DESC)

有选择地增加列 project_idfeed_id 的统计目标可能会有所帮助,因此可以更准确地估计两种策略之间的临界点。

  • Postgresql - Query running a lot faster with enable_nestloop=false. Why is the planner not doing the right thing?

因为您的项目只有旧行 (),您可以通过提示改进此查询,提示最大 approved_time(和 post_time,但这可能不是添加很多)- if 知道 每个项目的最大值 approved_time (和/或每 feed_id),或至少一个上限。

SELECT ...
WHERE  ...
<b>AND   approved_time <= $upper_bound</b>