Skip to content

HTTP和HTTPS

在我们访问的网站中,URL 的开头会有 http 或 https,这是访问资源需要的协议类型。有时,我们还会看到 ftp、sftp、smb 开头的 URL,它们都是协议类型。在爬虫中,我们抓取的页面通常就是 http 或 https 协议的

HTTP
HTTP 的全称是 Hyper Text Transfer Protocol,中文名叫做超文本传输协议。HTTP 协议是用于从网络传输超文本数据到本地浏览器的传送协议,它能保证高效而准确地传送超文本文档

目前广泛使用的是 HTTP 1.1 版本

HTTP 的默认端口为 80

HTTPS
HTTPS 的全称是 Hyper Text Transfer Protocol over Secure Socket Layer,是以安全为目标的 HTTP 通道,简单讲是 HTTP 的安全版,即 HTTP 下加入 SSL 层,简称为 HTTPS

HTTPS 的安全基础是 SSL,因此通过它传输的内容都是经过 SSL 加密的,它的主要作用可以分为两种

  • 建立一个信息安全通道来保证数据传输的安全
  • 确认网站的真实性,凡是使用了 HTTPS 的网站,都可以通过点击浏览器地址栏的锁头标志来查看网站认证之后的真实信息,也可以通过 CA 机构颁发的安全签章来查询

而某些网站虽然使用了 HTTPS 协议,但还是会被浏览器提示不安全,但是实际上它的数据传输依然是经过 SSL 加密的,只是证书不被 CA 机构信任。如果要爬取这样的网站,就需要设置忽略证书的选项,否则会提示 SSL 链接错误

HTTPS 的默认端口为 443

HTTP 请求过程

访问https://www.baidu.com/

Network 页面下方出现了一个个的条目,其中一个条目就代表一次发送请求和接收响应的过程

先观察第一个网络请求,即www.baidu.com

其中各列的含义

  • Name: 请求的名称,一般会将 URL 的最后一部分内容当作名称
  • Status: 响应的状态码,这里显示 200,代表响应是正常的,通过状态码,我们可以判断发送了请求之后是否得到了正常的响应
  • Type: 请求的文档类型。这里为 document,代表我们这次请求的是一个 HTML 文档,内容就是一些 HTML 代码
  • Initiator: 请求源,用来标记请求是由哪个对象或进程发起的
  • Size: 从服务器下载的文件和请求的资源大小。如果是从缓存中取得的资源,则该列会显示 from cache
  • Time: 发起请求到获取响应所用的总时间
  • Waterfall: 网络请求的可视化瀑布流

点击这个条目即可看到更详细的信息

首先是 General 部分,Request URL 为请求的 URL,Request Method 为请求的方法,Status Code 为响应状态码,Remote Adress 为远程服务器的地址和端口,Referrer Policy 为 Referrer 判别策略

再继续往下,可以看到,有 Response Headers 和 Request Headers,这分别代表响应头和请求头。请求头里带有许多请求信息,例如浏览器标识、Cookies、Host 等信息,这是请求的一部分,服务器会根据请求头内的信息判断请求是否合法,进而作出对应的响应。

Reponse Headers 就是响应的一部分,例如其中包含了服务器的类型、文档类型、日期等信息,浏览器接收到响应后,会解析响应内容,进而呈现网页内容

请求

请求由客户端向服务端发出,可以分为 4 部分内容:请求方法(Request Method)、请求的网址(Request URL)、请求头(Request Headers)、请求体(Request Body)

请求方法

方法 描述
GET 请求页面,并返回页面内容
HEAD 类似于 GET 请求,只不过返回的响应中没有具体内容,用于获取报头
POST 大多用于提交表单或上传文件,数据包含在请求体中
PUT 从客户端向服务器传送的数据取代指定文档中的内容
DELETE 请求服务器删除指定的页面
CONNECT 把服务器当作跳板,让服务器代替客户端访问其他网页
OPTIONS 允许客户端查看服务器的性能
TRACE 回显服务器收到的请求,主要用于测试或诊断

在浏览器中直接输入 URL 并回车,这便发起了一个 GET 请求,请求的参数会直接包含到 URL 里。例如,在百度中搜索 Python,这就是一个 GET 请求,链接为https://www.baidu.com/s?wd=Python,URL 中包含了请求的参数信息,这里参数 wd 表示要搜寻的关键字。

POST 请求大多在表单提交时发起。比如,对于一个登录表单,输入用户名和密码后,点击“登录”按钮,这通常会发起一个 POST 请求,其数据通常以表单的形式传输,而不会体现在 URL 中

GET 和 POST 请求方法有如下区别:

  • GET 请求中的参数包含在 URL 里面,数据可以在 URL 看到,而 POST 请求的 URL 不会包含这些数据,数据都是通过表单形式传输的,会包含在请求体中
  • GET 请求提交的数据最多只有 1024 字节,而 POST 方式没有限制

一般来说,登录时,需要提交用户名和密码,其中包含了敏感信息,使用 GET 方式请求的话,密码就会暴露在 URL 里面,造成密码泄漏,所有这里最好以 POST 方式发送。上传文件时,由于文件内容比较大,也会选用 POST 方式

请求头

请求头,用来说明服务器要使用的附加信息,比较重要的信息有 Cookie、Referer、User-Agent 等。常用的头信息

  • Accept: 请求报头域,用于指定客户端可接收哪些类型的信息
  • Accept-Language: 指定客户端可接收的语言类型
  • Accept-Encoding: 指定客户端可接收的内容编码
  • Host: 用于指定请求资源的主机 IP 和端口号,其内容为请求 URL 的原始服务器或网关的位置。从 HTTP 1.1 开始,请求必须包含此内容
  • Cookie: 也常用复数形式 Cookies,这是网站为了辨别用户进行会话跟踪而存储在用户本地的数据。它的主要功能是维持当前访问会话。例如,我们输入用户名和密码成功登录某个网站后,服务器会用会话保存登录状态信息,后面我们每次刷新或请求该站点的其他页面时,会发现都是登录状态,这就是 Cookie 的功劳。Cookie 里有信息标识了我们所对应的服务器的会话,每次浏览器在请求该站点的页面时,都会在请求头中加上 Cookie 并将其发送给服务器,服务器通过 Cookie 识别出是我们自己,并且查出当前状态是登录状态,所以返回结果就是登录之后才能看到的网页内容
  • Referer: 此内容用来标识这个请求是从哪个页面发过来的,服务器可以拿到这一信息并做响应的处理,如做来源统计、防盗链处理等
  • User-Agent: 简称 UA,它是一个特殊的字符串头,可以使服务器识别客户使用的操作系统及版本、浏览器及版本等信息。在做爬虫时加上此信息,可以伪装为浏览器;如果不加,很可能会被识别出为爬虫
  • Content-Type: 也加互联网媒体类型或者 MIME 类型,在 HTTP 协议消息头中,它用来表示具体请求中的媒体类型信息。例如,text/html 代表 HTML 格式,image/gif 代表 GIF 图片,application/json 代表 JSON 类型,更多对应关系可以查看此对照表:http://tool.oschina.net/commons

因此,请求头是请求的重要组成部分,在写爬虫时,大部分情况下都需要设定请求头

请求体

请求体一般承载的内容是 POST 请求中的表单数据,而对于 GET 请求,请求体则为空

以登录 GitHub 为例,登录之前填写用户名和密码,提交时这些内容就会以表单数据的形式提交给服务器,此时需要注意 Request Headers 中指定 Content-Type 为 application/x-www-from-urlencoded。只有设置 Content-Type 为 application/x-www-form-urlencoded,才会以表单数据的形式提交。

Content-Type 和 POST 提交数据方式的关系

Content-Type 提交数据的方式
application/x-www-form-urlencoded 表单数据
multipart/form-data 表单文件上传
application/json 序列化 JSON 数据
text/xml XML 数据

在爬虫时,如果要构造 POST 请求,需要使用正确的 Content-Type,并了解各种请求库的各个参数设置时使用的是哪种 Content-Type,不然可能会导致 POST 提交后无法正常响应

响应

响应,由服务端返回给客户端,可以分为三部分:响应状态码、响应头和响应体

响应状态码
响应状态码表示服务器的响应状态,如 200 代表服务器正常响应,404 代表页面未找到,500 代表服务器内部发生错误。在爬虫中,我们可以根据状态码来判断服务器响应状态,如状态码为 200,则证明成功返回数据,再进行进一步的处理,否则直接忽略

  • 200 请求成功
  • 301 资源被永久转移到其他 URL,即永久重定向
  • 404 请求的资源不存在;403 禁止访问
  • 500 内部服务器错误; 504 网关超时
  • 1** 信息,服务器收到请求,需要请求者继续执行操作
  • 2** 成功,操作被成功接收并处理;
  • 3** 重定向,需要进一步的操作完成请求你;
  • 4** 客户端错误,请求包含语法错误或无法完成请求
  • 5** 服务器错误,服务器在处理请求的过程中发生了错误

响应头
响应头包含了服务器对请求的应答信息,如 Content-Type、Server、Set-Cookie 等

  • Date: 标识响应产生的时间
  • Last-Modified: 指定资源的最后修改时间
  • Content-Encoding: 指定响应内容的编码
  • Server: 包含服务器的信息,比如名称、版本号等
  • Content-Type: 文档类型,指定返回的的数据类型是什么,如 text/html 代表 HTML 文档,application/x-javascript 则代表返回 JavaScript 文件,image/jpeg 则代表返回图片
  • Set-Cookie: 设置 Cookies。响应头中的 Set-Cookie 告诉浏览器需要将此内容放在 Cookies 中,下次请求携带 Cookies 请求
  • Expires: 指定响应的过期时间,可以使代理服务器或浏览器将加载的内容更新到缓存中。如果再次访问时,就可以直接从缓存中加载,降低服务器负载,缩短加载时间

响应体
最重要的当属响应体的内容。响应的正文数据都在响应体中,比如请求网页时,它的响应体就是网页的 HTML 代码;请求一张图片时,它的响应体就是图片的二进制数据。做爬虫请求网页后,要解析的内容就是响应体

在做爬虫时,我们主要通过响应体得到网页的源代码、JSON 数据等,然后从中做相应内容的提取