PHP - `get_headers` returns 有效 URL 的“400 错误请求”和“403 禁止访问”?

PHP - `get_headers` returns "400 Bad Request" and "403 Forbidden" for valid URLs?

描述底部的工作解决方案!

我是 运行 PHP 5.4,正在尝试获取 URL 列表的 header。

在大多数情况下,一切正常,但有三个 URL 导致了问题(并且可能更多,需要进行更广泛的测试)。

'http://www.alealimay.com'
'http://www.thelovelist.net'
'http://www.bleedingcool.com'

这三个站点在浏览器中都运行良好,并产生以下 header 响应:

(来自 Safari)

请注意所有三个 header 响应都是 Code = 200

但是通过 PHP 检索 headers,使用 get_headers...

stream_context_set_default(array('http' => array('method' => "HEAD")));
$headers = get_headers($url, 1);
stream_context_set_default(array('http' => array('method' => "GET")));

... returns 以下:

url  ......  "http://www.alealimay.com"

headers
|    0  ............................  "HTTP/1.0 400 Bad Request"
|    content-length  ...............  "378"
|    X-Synthetic  ..................  "true"
|    expires  ......................  "Thu, 01 Jan 1970 00:00:00 UTC"
|    pragma  .......................  "no-cache"
|    cache-control  ................  "no-cache, must-revalidate"
|    content-type  .................  "text/html; charset=UTF-8"
|    connection  ...................  "close"
|    date  .........................  "Wed, 24 Aug 2016 01:26:21 UTC"
|    X-ContextId  ..................  "QIFB0I8V/xsTFMREg"
|    X-Via  ........................  "1.0 echo109"
   


url  ......  "http://www.thelovelist.net"

headers
|    0  ............................  "HTTP/1.0 400 Bad Request"
|    content-length  ...............  "378"
|    X-Synthetic  ..................  "true"
|    expires  ......................  "Thu, 01 Jan 1970 00:00:00 UTC"
|    pragma  .......................  "no-cache"
|    cache-control  ................  "no-cache, must-revalidate"
|    content-type  .................  "text/html; charset=UTF-8"
|    connection  ...................  "close"
|    date  .........................  "Wed, 24 Aug 2016 01:26:22 UTC"
|    X-ContextId  ..................  "aNKvf2RB/bIMjWyjW"
|    X-Via  ........................  "1.0 echo103"



url  ......  "http://www.bleedingcool.com"

headers
|    0  ............................  "HTTP/1.1 403 Forbidden"
|    Server  .......................  "Sucuri/Cloudproxy"
|    Date  .........................  "Wed, 24 Aug 2016 01:26:22 GMT"
|    Content-Type  .................  "text/html"
|    Content-Length  ...............  "5311"
|    Connection  ...................  "close"
|    Vary  .........................  "Accept-Encoding"
|    ETag  .........................  "\"57b7f28e-14bf\""
|    X-XSS-Protection  .............  "1; mode=block"
|    X-Frame-Options  ..............  "SAMEORIGIN"
|    X-Content-Type-Options  .......  "nosniff"
|    X-Sucuri-ID  ..................  "11005"

不管怎么改都是这样stream_context

//stream_context_set_default(array('http' => array('method' => "HEAD")));
$headers = get_headers($url, 1);
//stream_context_set_default(array('http' => array('method' => "GET")));

产生相同的结果。

没有针对这些中的任何一个发出警告或错误(通常使用 @get_headers 抑制错误,但两种方式都没有区别)。

我检查了我的 php.ini,并将 allow_url_fopen 设置为 On

我正朝着 stream_get_meta_data 方向发展,对 CURL 解决方案不感兴趣 stream_get_meta_data(及其随附的 fopen)将在与 get_headers 相同的位置失败,因此在这种情况下修复一个将同时修复两者。

通常,如果有重定向,输出如下:

url  ......  "http://www.startingURL.com/"

headers
|    0  ............................  "HTTP/1.1 301 Moved Permanently"
|    1  ............................  "HTTP/1.1 200 OK"
|    Date
|    |    "Wed, 24 Aug 2016 02:02:29 GMT"
|    |    "Wed, 24 Aug 2016 02:02:32 GMT"
|    
|    Server
|    |    "Apache"
|    |    "Apache"
|    
|    Location  .....................  "http://finishingURL.com/"
|    Connection
|    |    "close"
|    |    "close"
|    
|    Content-Type
|    |    "text/html; charset=UTF-8"
|    |    "text/html; charset=UTF-8"
|    
|    Link  .........................  "; rel=\"https://api.w.org/\", ; rel=shortlink"

为什么这些网站在浏览器中工作,但在使用 get_headers 时失败?

有各种 SO 帖子讨论同一件事,但所有这些帖子的解决方案都不适用于这种情况:

(我发送了一个HEAD请求,没有返回任何内容)

(这些网址中仅有的字符全部来自拉丁字母表)

Cannot send a URL with spaces in it(这些网址都是space-free,各方面都很普通)

解决方法!

(感谢 Max 在下面的回答中为我指明了正确的轨道。)

问题是因为没有 pre-defined user_agent,既没有在 php.ini 中设置,也没有在代码中声明。

因此,我将 user_agent 更改为模仿浏览器,执行操作,然后将其恢复为初始值(可能为空白)。

$OriginalUserAgent = ini_get('user_agent');
ini_set('user_agent', 'Mozilla/5.0');

$headers = @get_headers($url, 1);

ini_set('user_agent', $OriginalUserAgent);

发现用户代理更改 here

发生这种情况是因为所有这三个站点都在检查请求的 UserAgent header,如果无法匹配,则在这种情况下会出现错误响应。 get_headers 函数不发送此 header。您可以尝试使用 cURL 和此代码片段来获取网站内容:

$url = 'http://www.alealimay.com';
$c = curl_init($url);
curl_setopt($c, CURLOPT_USERAGENT, 'curl/7.48.0');
curl_exec($c);
var_dump(curl_getinfo($c));

更新: 不必使用 cURL 来设置用户代理 header。也可以使用 ini_set('user_agent', 'Mozilla/5.0'); 完成,然后 get_headers 函数将使用配置的值。