重复键值违反唯一约束 - 尝试从 dask 数据帧创建 sql table 时出现 postgres 错误

duplicate key value violates unique constraint - postgres error when trying to create sql table from dask dataframe

根据 问题,当我尝试从具有多个分区的 dask.dataframe 创建 postgresql table 时,出现以下错误:

IntegrityError: (psycopg2.IntegrityError) duplicate key value violates unique constraint "pg_type_typname_nsp_index"
DETAIL:  Key (typname, typnamespace)=(test1, 2200) already exists.
 [SQL: '\nCREATE TABLE test1 (\n\t"A" BIGINT, \n\t"B" BIGINT, \n\t"C" BIGINT, \n\t"D" BIGINT, \n\t"E" BIGINT, \n\t"F" BIGINT, \n\t"G" BIGINT, \n\t"H" BIGINT, \n\t"I" BIGINT, \n\t"J" BIGINT, \n\tidx BIGINT\n)\n\n']

您可以使用以下代码重现错误:

import numpy as np
import dask.dataframe as dd
import dask
import pandas as pd
import sqlalchemy_utils as sqla_utils
import sqlalchemy as sqla
DATABASE_CONFIG = {
    'driver': '',
    'host': '',
    'user': '',
    'password': '',
    'port': 5432,
}
DBNAME = 'dask'
url = '{driver}://{user}:{password}@{host}:{port}/'.format(
        **DATABASE_CONFIG)
db_url = url.rstrip('/') + '/' + DBNAME
# create db if non-existent
if not sqla_utils.database_exists(db_url):
    print('Creating database \'{}\''.format(DBNAME))
    sqla_utils.create_database(db_url)
conn = sqla.create_engine(db_url)
# create pandas df with random numbers
df = pd.DataFrame(np.random.randint(0,40,size=(100, 10)), columns=list('ABCDEFGHIJ'))
# add index so that it can be used as primary key later on
df['idx'] = df.index
# create dask df
ddf = dd.from_pandas(df, npartitions=4)
# Write to psql
dto_sql = dask.delayed(pd.DataFrame.to_sql)
out = [dto_sql(d, 'test', db_url, if_exists='append', index=False, index_label='idx')
       for d in ddf.to_delayed()]
dask.compute(*out)

如果 npartitions 设置为 1,代码不会产生错误。所以我猜这与 postgres 无法处理并行请求写入相同的 sql table...?我该如何解决这个问题?

我正在阅读 this。 当您 creating/updating 与并行处理相同 table 时,似乎会出现此错误。我理解这取决于 this(如 google 小组讨论中所述)。

所以我认为它取决于 PostgreSQL 本身,而不是连接驱动程序或用于多处理的模块。

好吧,实际上,我发现解决这个问题的唯一方法是创建足够大的块,以使写入过程比计算本身慢。 对于更大的块,此错误不会增加。

我在 Heroku 的 PostgreSQL 上使用 ponyORM 时遇到了同样的错误。 我通过锁定线程直到它执行数据库操作来解决它。就我而言:

lock = threading.Lock()
with lock:
    PonyOrmEntity(name='my_name', description='description')
    PonyOrmEntity.get(lambda u: u.name == 'another_name')

在 PostgreSQL 中对我有帮助。

set enable_parallel_hash=off;

开机后

set enable_parallel_hash=on;