导入大型 csv 文件时出现 Prestashop 错误 503
Prestashop error 503 when importing large csv file
我正在使用 Prestashop (1.7.6.7) 的本地导入程序导入一个大型 csv 文件(大约 30k 行),但我崩溃了(最常见于数据验证之后)。
我是 运行 我的网络服务器,使用 apache 和 php fpm 7.2。这是我得到的日志:
Jun 25 10:00:01.490369 2021] [proxy_fcgi:error] [pid 18083:tid 139680320476928] [client 176.141.207.46:63302] AH01067: Failed to read FastCGI header, referer: https://preprod.motogoodeal.ch/admin5473ukqbi/index.php?controller=AdminImport&token=bf736a3ca6f1406cf822f2dd9c22f028
[Fri Jun 25 10:00:01.490404 2021] [proxy_fcgi:error] [pid 18083:tid 139680320476928] (104)Connection reset by peer: [client 176.141.207.46:63302] AH01075: Error dispatching request to : , referer: https://preprod.motogoodeal.ch/admin5473ukqbi/index.php?controller=AdminImport&token=bf736a3ca6f1406cf822f2dd9c22f028
之前有效
请与您的主机提供商核对 PHP 参数,例如:
allow_url_fopen = 开启
allow_url_include = 关闭
asp_tags = 关闭
display_errors = 关闭
enable_dl = 关闭
file_uploads = 开启
max_execution_time = 30
max_input_time = 60
max_input_vars = 50000
memory_limit = 512M
session.save_path = ""
upload_max_filesize = 128M
但您需要根据您的需求和托管资源为每个输入正确的值
我通过增加 pm.max_children 值解决了这个问题:)
我正在使用 Prestashop (1.7.6.7) 的本地导入程序导入一个大型 csv 文件(大约 30k 行),但我崩溃了(最常见于数据验证之后)。
我是 运行 我的网络服务器,使用 apache 和 php fpm 7.2。这是我得到的日志:
Jun 25 10:00:01.490369 2021] [proxy_fcgi:error] [pid 18083:tid 139680320476928] [client 176.141.207.46:63302] AH01067: Failed to read FastCGI header, referer: https://preprod.motogoodeal.ch/admin5473ukqbi/index.php?controller=AdminImport&token=bf736a3ca6f1406cf822f2dd9c22f028
[Fri Jun 25 10:00:01.490404 2021] [proxy_fcgi:error] [pid 18083:tid 139680320476928] (104)Connection reset by peer: [client 176.141.207.46:63302] AH01075: Error dispatching request to : , referer: https://preprod.motogoodeal.ch/admin5473ukqbi/index.php?controller=AdminImport&token=bf736a3ca6f1406cf822f2dd9c22f028
之前有效
请与您的主机提供商核对 PHP 参数,例如: allow_url_fopen = 开启
allow_url_include = 关闭
asp_tags = 关闭
display_errors = 关闭
enable_dl = 关闭
file_uploads = 开启
max_execution_time = 30
max_input_time = 60
max_input_vars = 50000
memory_limit = 512M
session.save_path = ""
upload_max_filesize = 128M
但您需要根据您的需求和托管资源为每个输入正确的值
我通过增加 pm.max_children 值解决了这个问题:)