Postgresql索引seq扫描1亿行

Postgresql index seq scan 100 million rows

我遇到一个问题,其中已编制索引的查询拒绝使用索引,因为它的选择性不够(假设 1.3 亿行中有 60 行满足条件),因此决定使用 seqscan。

我面临的问题是 seqscan 在这种情况下确实不是最佳选择,出于某种原因它获得了非常好的分数,但事实是 seqscan 只有在之前被查询过时才能运行得很快它可以加载 buffers/cache.

中的所有内容

如果索引扫描都在缓冲区上,则与 seqscan 相比,索引扫描可能会稍微慢一些,但这种情况很少发生,当两个查询都是冷查询时,索引扫描仍然更快(毫秒对秒)。

请注意,索引扫描更优越,因为我使用了限制子句,因此它应该能够非常快速地获取那几行。

我已将统计值设置为 1000(默认值为 100)并清理以防万一,但情况相同。

TLDR:Seq 扫描与低选择性索引上的索引扫描,seqscan 是首选,但规划器是错误的,seqscan 只有在缓存时才更好,否则会更糟。

查询和计划,注意索引一是从缓冲区加载的,而 seqscan 还没有完全加载。

explain (analyze, buffers)
select *
from identities_identity
where email_domain = 'live.com'
limit 100


'Limit  (cost=0.00..63.50 rows=100 width=573) (actual time=75215.573..75215.640 rows=100 loops=1)'
'  Buffers: shared hit=75113 read=588870'
'  ->  Seq Scan on identities_identity  (cost=0.00..2980008.00 rows=4692733 width=573) (actual time=75215.571..75215.604 rows=100 loops=1)'
'        Filter: ((email_domain)::text = 'live.com'::text)'
'        Rows Removed by Filter: 54464136'
'        Buffers: shared hit=75113 read=588870'
'Planning time: 0.097 ms'
'Execution time: 75215.675 ms'


'Limit  (cost=0.57..187.26 rows=100 width=573) (actual time=0.027..0.090 rows=100 loops=1)'
'  Buffers: shared hit=6'
'  ->  Index Scan using identities_identity_email_domain_9056bd28 on identities_identity  (cost=0.57..8760978.66 rows=4692733 width=573) (actual time=0.026..0.057 rows=100 loops=1)'
'        Index Cond: ((email_domain)::text = 'live.com'::text)'
'        Buffers: shared hit=6'
'Planning time: 0.078 ms'
'Execution time: 0.124 ms'

更新:

Table def(电子邮件索引,以及 email_domain,标准索引和 varchar_pattern_ops 索引)

CREATE TABLE public.identities_identity
(
    id bigint NOT NULL DEFAULT nextval('identities_identity_id_seq'::regclass),
    email character varying(1000) COLLATE pg_catalog."default",
    email_domain character varying(1000) COLLATE pg_catalog."default",
    leak_id bigint NOT NULL,
    CONSTRAINT identities_identity_pkey PRIMARY KEY (id),
    CONSTRAINT identities_identity_leak_id_87e1ae4e_fk_identities_leak_id FOREIGN KEY (leak_id)
        REFERENCES public.identities_leak (id) MATCH SIMPLE
        ON UPDATE NO ACTION
        ON DELETE NO ACTION
        DEFERRABLE INITIALLY DEFERRED
)

Table 统计数据(真空分析后

attname, avg_width, n_distinct, correlation
'id',8,'-1','0.999988'
'email',23,'-0.636853','-0.020479'
'email_domain',10,'3876','0.696452'
'leak_id',8,'1','1'

您可以使用一个卑鄙的技巧来强制进行索引扫描:

SELECT *
FROM identities_identity
WHERE email_domain IN ('live.com', NULL)
ORDER BY email_domain
LIMIT 100;

如果 PostgreSQL 必须排序,使用索引总是更便宜。

如果你有 WHERE email_domain = 'live.com',PostgreSQL 足够聪明,知道它不需要排序,这就是为什么我添加了第二个无用的项目来欺骗它。

好吧,解决方案是对数据进行物理重新排序,这样针对这些特殊情况的顺序扫描就不会失败。

基本上,运行在使数据均匀分布的列上CLUSTER identities_identity USING index_name;(例如电子邮件域之前的值)。

现在顺序扫描 运行 很好,即使使用冷缓冲区也是如此。

但是,@Laurenz Albe 的回答对于我发布的特定案例来说非常好,如果无法进行聚类,这是一个很好的技巧。