百度站点地图文件抓取失败

Baidu Sitemap files Failed to Crawl

我已将我网站的站点地图文件提交给中文百度。

我的站点地图包括:

1) 16 个用 gzip 压缩的站点地图文件,每个文件小于 10Mb,包含小于 50K url.
2) 站点地图索引,包含指向上述站点地图 gzip 文件的链接。

我看到的是百度非常奇怪的行为 - 它将我的一些站点地图文件标记为抓取失败(抓取失败),而其他的似乎已处理(正常 -正常)。
当我重新提交同一套 Sitemaps 时,其他文件随机变为 Failed Crawl,而之前失败的文件可以正常处理。

除了百度消息“抓取失败”(抓取失败)我找不到我的站点地图有什么问题。
我快疯了,因为百度非常随机地标记文件 "Failed Crawl"。

谁能指点一下哪里不对?
或者从百度哪里可以看到具体的错误信息 为什么"Failed Crawl"?

最后,经过可能的尝试,百度也将站点地图索引文件标记为"Failed Crawl"(但是提交后总是先处于'waiting'状态,然后是'notmal' 正常爬行)

注意:Google、Yahoo/Bing、Yandex 成功处理了相同的文件!

截图请看这里:https://drive.google.com/open?id=0BzDlz6j9c35WWkdwb3F6LW9zazA

此错误在 Bing/Baidu/Yendex 中最常见。这是由于 HTTPS 请求。尝试对站点地图强制使用 HTTP 并重新提交。