Redshift 副本没有将数据插入我的 table
Redshift copy doesn't insert data into my table
我有table SampleTable
和运行 通过 SQL 客户端 (JackDB)
的以下 Redshift 命令
copy SampleTable
from 's3://bucket-name/backup/data.csv.gz'
credentials 'aws_access_key_id=xxx;aws_secret_access_key=xxx'
gzip
csv;
命令执行 return
Executed successfully Updated 0 rows in 2.771 seconds.
但没有数据插入空 table SampleTable
select count(*)
from SampleTabe
return 0
data.csv.gz
中有 100MB 数据
自己解决,数据与查询不对应。
我应该包括分隔符以覆盖默认值和 IGNOREHEADER 1 以跳过 csv header。
只是因为在这种情况下没有记录 stl_load_error 而感到困扰
我有table SampleTable
和运行 通过 SQL 客户端 (JackDB)
的以下 Redshift 命令copy SampleTable
from 's3://bucket-name/backup/data.csv.gz'
credentials 'aws_access_key_id=xxx;aws_secret_access_key=xxx'
gzip
csv;
命令执行 return
Executed successfully Updated 0 rows in 2.771 seconds.
但没有数据插入空 table SampleTable
select count(*)
from SampleTabe
return 0
data.csv.gz
中有 100MB 数据自己解决,数据与查询不对应。
我应该包括分隔符以覆盖默认值和 IGNOREHEADER 1 以跳过 csv header。
只是因为在这种情况下没有记录 stl_load_error 而感到困扰