您好,登錄后才能下訂單哦!
今天就跟大家聊聊有關HTTP協議中需要知道的三種數據格式分別是什么,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
實習中的一個主要工作就是分析 HTTP 中的協議,自己也用 Python 寫過正則表達式對 HTTP 請求和響應的內容進行匹配,然后把關鍵字段抽離出來放到一個字典中以備使用(可以稍微改造一下就是一個爬蟲工具)。
HTTP 協議中的很多坑,自己都遇到過,我就針對自己遇到的幾種 HTTP 常見的數據格式,來做一個總結。
Zlib 壓縮數據
對于 Zlib,一點也不陌生,我們平時用它來壓縮文件,常見類型有 zip、rar 和 7z 等。Zlib 是一種流行的文件壓縮算法,應用十分廣泛,尤其是在 Linux 平臺。當應用 Zlib 壓縮到一個純文本文件時,效果是非常明顯的,大約可以減少70%以上的文件大小,這取決于文件中的內容。
Zlib 也適用于 Web 數據傳輸,比如利用 Apache 中的 Gzip (后面會提到,一種壓縮算法) 模塊,我們可以使用 Gzip 壓縮算法來對 Apache 服務器發布的網頁內容進行壓縮后再傳輸到客戶端瀏覽器。這樣經過壓縮后實際上降低了網絡傳輸的字節數,最明顯的好處就是可以加快網頁加載的速度。
網頁加載速度加快的好處不言而喻,節省流量,改善用戶的瀏覽體驗。而這些好處并不僅僅限于靜態內容,PHP 動態頁面和其他動態生成的內容均可以通過使用 Apache 壓縮模塊壓縮,加上其他的性能調整機制和相應的服務器端 緩存規則,這可以大大提高網站的性能。因此,對于部署在 Linux 服務器上的 PHP 程序,在服務器支持的情況下,建議你開啟使用 Gzip Web 壓縮。
Gzip 壓縮兩種類型
壓縮算法不同,可以產生不同的壓縮數據(目的都是為了減小文件大小)。目前 Web 端流行的壓縮格式有兩種,分別是 Gzip 和 Defalte。
Apache 中的就是 Gzip 模塊,Deflate 是同時使用了 LZ77 算法與哈夫曼編碼(Huffman Coding)的一個無損數據壓縮算法。Deflate 壓縮與解壓的源代碼可以在自由、通用的壓縮庫 zlib 上找到。
更高壓縮率的 Deflate 是 7-zip 所實現的。AdvanceCOMP 也使用這種實現,它可以對 gzip、PNG、MNG 以及 ZIP 文件進行壓縮從而得到比 zlib 更小的文件大小。在 Ken Silverman的 KZIP 與 PNGOUT 中使用了一種更加高效同時要求更多用戶輸入的 Deflate 程序。
deflate 使用 inflateInit(),而 gzip 使用 inflateInit2() 進行初始化,比 inflateInit() 多一個參數: -MAX_WBITS,表示處理 raw deflate 數據。因為 gzip 數據中的 zlib 壓縮數據塊沒有 zlib header 的兩個字節。使用 inflateInit2 時要求 zlib 庫忽略 zlib header。在 zlib 手冊中要求 windowBits 為 8..15,但是實際上其它范圍的數據有特殊作用,如負數表示 raw deflate。
其實說這么多,總結一句話,Deflate 是一種壓縮算法,是 huffman 編碼的一種加強。 deflate 與 gzip 解壓的代碼幾乎相同,可以合成一塊代碼。
更多知識請見 維基百科 zlib。
Web 服務器處理數據壓縮的過程
Web服務器接收到瀏覽器的HTTP請求后,檢查瀏覽器是否支持HTTP壓縮(Accept-Encoding 信息);
如果瀏覽器支持HTTP壓縮,Web服務器檢查請求文件的后綴名;
如果請求文件是HTML、CSS等靜態文件,Web服務器到壓縮緩沖目錄中檢查是否已經存在請求文件的***壓縮文件;
如果請求文件的壓縮文件不存在,Web服務器向瀏覽器返回未壓縮的請求文件,并在壓縮緩沖目錄中存放請求文件的壓縮文件;
如果請求文件的***壓縮文件已經存在,則直接返回請求文件的壓縮文件;
如果請求文件是動態文件,Web服務器動態壓縮內容并返回瀏覽器,壓縮內容不存放到壓縮緩存目錄中。
舉個栗子
說了這么多,下面舉一個例子,打開抓包軟件,訪問我們學校的官網( www.ecnu.edu.cn ),請求頭如下:
GET /_css/tpl2/system.css HTTP/1.1 Host: www.ecnu.edu.cn Connection: keep-alive User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.59 Safari/537.36 Accept: text/css,*/*;q=0.1 Referer: http://www.ecnu.edu.cn/ Accept-Encoding: gzip, deflate Accept-Language: zh-CN,zh;q=0.8 Cookie: a10-default-cookie-persist-20480-sg_bluecoat_a=AFFIHIMKFAAA
在第七行, Accept-Encoding 顯示的是 gzip, deflate,這句話的意思是,瀏覽器告訴服務器支持 gzip 和 deflate 兩種數據格式,服務器收到這種請求之后,會進行 gzip 或 deflate 壓縮(一般都是返回 gzip 格式的數據)。
Python 的 urllib2 就可以設置這個參數:
request = urllib2.Request(url) request.add_header('Accept-encoding', 'gzip') //或者設置成 deflate request.add_header('Accept-encoding', 'deflate') //或者兩者都設置 request.add_header('Accept-encoding', 'gzip, deflate')
服務器給的響應一般如下:
HTTP/1.1 200 OK Date: Sat, 22 Oct 2016 11:41:19 GMT Content-Type: text/javascript;charset=utf-8 Transfer-Encoding: chunked Connection: close Vary: Accept-Encoding tracecode: 24798560510951725578102219 Server: Apache Content-Encoding: gzip 400a ............ks#I. ...W...,....>..T..]..Z...Y..].MK..2..L..(略) //響應體為壓縮數據
從響應頭來看,Content-Encoding: gzip 這段話說明響應體的壓縮方式是 gzip 壓縮,一般有幾種情況,字段為空表示明文無壓縮,還有 Content-Encoding: gzip 和 Content-Encoding: deflate 兩種。
實際上 Gzip 網站要遠比 Deflate 多,之前寫過一個簡單爬蟲從 hao123的主頁開始爬,爬幾千個網頁(基本涵蓋所有常用的),專門分析響應體的壓縮類型,得到的結果是:
Accept-Encoding 不設置參數:會返回一個無壓縮的響應體(瀏覽器比較特別,他們會自動設置 Accept-Encoding: gzip: deflate 來提高傳輸速度);
Accept-Encoding: gzip,100% 的網站都會返回 gzip 壓縮,但不保證互聯網所有網站都支持 gzip(萬一沒開啟);
Accept-Encoding: deflate:只有不到 10% 的網站返回一個 deflate 壓縮的響應,其他的則返回一個沒有壓縮的響應體。
Accept-Encoding: gzip, deflate:返回的結果也都是 gzip 格式的數據,說明在優先級上 gzip 更受歡迎。
響應頭的 Encoding 字段很有幫助,比如我們寫個正則表達式匹配響應頭是什么壓縮:
(?<=Content-Encoding: ).+(?=\r\n)
匹配到內容為空說明沒有壓縮,為 gzip 說明響應體要經過 gzip 解壓,為 deflate 說明為 deflate 壓縮。
Python 中的 zlib 庫
在python中有zlib庫,它可以解決gzip、deflate和zlib壓縮。這三種對應的壓縮方式分別是:
RFC 1950 (zlib compressed format) RFC 1951 (deflate compressed format) RFC 1952 (gzip compressed format)
雖說是 Python 庫,但是底層還是 C(C++) 來實現的,這個 http-parser 也是 C 實現的源碼,Nodejs 的 http-parser 也是 C 實現的源碼,zlib 的 C 源碼在這里。C 真的好牛逼呀!
在解壓縮的過程中,需要選擇 windowBits 參數:
to (de-)compress deflate format, use wbits = -zlib.MAX_WBITS to (de-)compress zlib format, use wbits = zlib.MAX_WBITS to (de-)compress gzip format, use wbits = zli
例如,解壓gzip數據,就可以使用zlib.decompress(data, zlib.MAX_WBITS | 16),解壓deflate數據可以使用zlib.decompress(data,- zlib.MAX_WBITS)。
當然,對于gzip文件,也可以使用python的gzip包來解決,可以參考下面的代碼:
>>> import gzip >>> import StringIO >>> fio = StringIO.StringIO(gzip_data) >>> f = gzip.GzipFile(fileobj=fio) >>> f.read() 'test' >>> f.close()
也可以在解壓的時候自動加入頭檢測,把32加入頭中就可以觸發頭檢測,例如:
>>> zlib.decompress(gzip_data, zlib.MAX_WBITS|32) 'test' >>> zlib.decompress(zlib_data, zlib.MAX_WBITS|32) 'test'
以上參考 stackoverflow How can I decompress a gzip stream with zlib?。
剛接觸這些東西的時候,每天都會稀奇古怪的報一些錯誤,基本上 Google 一下都能解決。
分塊傳輸編碼 chunked
分塊傳輸編碼(Chunked transfer encoding)是超文本傳輸協議(HTTP)中的一種數據傳輸機制,允許 HTTP 由網頁服務器發送給客戶端應用( 通常是網頁瀏覽器)的數據可以分成多個部分。分塊傳輸編碼只在 HTTP 協議 1.1 版本(HTTP/1.1)中提供。
通常,HTTP 應答消息中發送的數據是整個發送的,Content-Length 消息頭字段表示數據的長度。數據的長度很重要,因為客戶端需要知道哪里是應答消息的結束,以及后續應答消息的開始。然而,使用分塊傳輸編碼,數據分解成一系列數據塊,并以一個或多個塊發送,這樣服務器可以發送數據而不需要預先知道發送內容的總大小。通常數據塊的大小是一致的,但也不總是這種情況。
分塊傳輸的優點
HTTP 1.1引入分塊傳輸編碼提供了以下幾點好處:
HTTP 分塊傳輸編碼允許服務器為動態生成的內容維持 HTTP 持久鏈接。通常,持久鏈接需要服務器在開始發送消息體前發送 Content-Length 消息頭字段,但是對于動態生成的內容來說,在內容創建完之前是不可知的。
分塊傳輸編碼允許服務器在***發送消息頭字段。對于那些頭字段值在內容被生成之前無法知道的情形非常重要,例如消息的內容要使用散列進行簽名,散列的結果通過 HTTP 消息頭字段進行傳輸。沒有分塊傳輸編碼時,服務器必須緩沖內容直到完成后計算頭字段的值并在發送內容前發送這些頭字段的值。
HTTP 服務器有時使用壓縮 (gzip 或 deflate)以縮短傳輸花費的時間。分塊傳輸編碼可以用來分隔壓縮對象的多個部分。在這種情況下,塊不是分別壓縮的,而是整個負載進行壓縮,壓縮的輸出使用本文描述的方案進行分塊傳輸。在壓縮的情形中,分塊編碼有利于一邊進行壓縮一邊發送數據,而不是先完成壓縮過程以得知壓縮后數據的大小。
注:以上內容來自于維基百科。
分塊傳輸的格式
如果一個 HTTP 消息(請求消息或應答消息)的 Transfer-Encoding 消息頭的值為 chunked,那么,消息體由數量未定的塊組成,并以***一個大小為 0 的塊為結束。每一個非空的塊都以該塊包含數據的字節數(字節數以十六進制表示)開始,跟隨一個 CRLF(回車及換行),然后是數據本身,***塊 CRLF 結束。在一些實現中,塊大小和 CRLF 之間填充有白空格(0x20)。
***一塊是單行,由塊大小(0),一些可選的填充白空格,以及 CRLF。***一塊不再包含任何數據,但是可以發送可選的尾部,包括消息頭字段。
消息***以 CRLF 結尾。例如下面就是一個 chunked 格式的響應體。
HTTP/1.1 200 OK Date: Wed, 06 Jul 2016 06:59:55 GMT Server: Apache Accept-Ranges: bytes Transfer-Encoding: chunked Content-Type: text/html Content-Encoding: gzip Age: 35 X-Via: 1.1 daodianxinxiazai58:88 (Cdn Cache Server V2.0), 1.1 yzdx147:1 (Cdn Cache Server V2.0) Connection: keep-alive a ....k.|W.. 166 ..OO.0...&~..;........]..(F=V.A3.X..~z...-.l8......y....).?....,....j..h .6 ....s.~.>..mZ .8/..,.)B.G.`"Dq.P].f=0..Q..d.....h......8....F..y......q.....4 {F..M.A.*..a.rAra.... .n>.D ..o@.`^.....!@ $...p...%a\D..K.. .d{2...UnF,C[....T.....c....V...."%.`U......? D....#..K..<.....D.e....IFK0.<...)]K.V/eK.Qz...^....t...S6...m...^..CK.XRU?m.. .........Z..#Uik...... 0
Transfer-Encoding: chunked字段可以看出響應體是否為 chunked 壓縮,chunked 數據很有意思,采用的格式是 長度\r\n內容\r\n長度\r\n..0\r\n,而且長度還是十六進制的,***以 0\r\n 結尾(不保證都有)。因為上面的數據是 gzip 壓縮,看起來不夠直觀,下面舉個簡單的例子:
5\r\n ababa\r\n f\r\n 123451234512345\r\n 14\r\n 12345123451234512345\r\n 0\r\n
上述例子 chunked 解碼后的數據 ababa12345...,另外 \r\n 是不可見的,我手動加的。
和 gzip 一樣,一樣可以寫一個正則表達式來匹配:
(?<=Transfer-Encoding: ).+(?=\r\n)
處理 chunked 數據
從前面的介紹可以知道,response-body 部分其實由 length(1) \r\n data(1) \r\n length(2) \r\n data(2)…… 循環組成,通過下面的函數進行處理,再根據壓縮類型解壓出最終的數據。
Python 處理的過程如下:
unchunked = b'' pos = 0 while pos <= len(data): chunkNumLen = data.find(b'\r\n', pos)-pos //從***個元素開始,發現***個\r\n,計算length長度 chunkLen=int(data[pos:pos+chunkNumLen], 16) //把length的長度轉換成int if chunkLen == 0: break //如果長度為0,則說明到結尾 chunk = data[pos+chunkNumLen+len('\r\n'):pos+chunkNumLen+len('\r\n')+chunkLen] unchunked += chunk //將壓縮數據拼接 pos += chunkNumLen+len('\r\n')+chunkLen+len('\r\n') //同時pos位置向后移動 return unchunked //此時處理后unchunked就是普通的壓縮數據,可以用zlib解壓函數進行解壓
實際中,我們會同時遇到既時 chunked 又是壓縮數據的響應,這個時候處理的思路應該是:先處理 chunked,在處理壓縮數據,順序不能反。
MultiPart 數據
MultiPart 的本質就是 Post 請求,MultiPart出現在請求中,用來對一些文件(圖片或文檔)進行處理,在請求頭中出現 Content-Type: multipart/form-data; boundary=::287032381131322 則表示為 MultiPart 格式數據包,下面這個是 multipart 數據包格式:
POST /cgi-bin/qtest HTTP/1.1 Host: aram User-Agent: Mozilla/5.0 Gecko/2009042316 Firefox/3.0.10 Accept: text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8 Accept-Language: en-us,en;q=0.5 Accept-Encoding: gzip,deflate Accept-Charset: ISO-8859-1,utf-8;q=0.7,*;q=0.7 Keep-Alive: 300 Connection: keep-alive Referer: http://aram/~martind/banner.htm Content-Type: multipart/form-data; boundary=::287032381131322 Content-Length: 514 --::287032381131322 Content-Disposition: form-data; name="datafile1"; filename="r.gif" Content-Type: image/gif GIF87a.............,...........D..; --::287032381131322 Content-Disposition: form-data; name="datafile2"; filename="g.gif" Content-Type: image/gif GIF87a.............,...........D..; --::287032381131322 Content-Disposition: form-data; name="datafile3"; filename="b.gif" Content-Type: image/gif GIF87a.............,...........D..; --::287032381131322—
http 協議本身的原始方法不支持 multipart/form-data 請求,那這個請求自然就是由這些原始的方法演變而來的,具體如何演變且看下文:
multipart/form-data 的基礎方法是 post,也就是說是由 post 方法來組合實現的
multipart/form-data 與 post 方法的不同之處:請求頭,請求體。
multipart/form-data 的請求頭必須包含一個特殊的頭信息:Content-Type,且其值也必須規定為 multipart/form-data,同時還需要規定一個內容分割符用于分割請求體中的多個 post 內容,如文件內容和文本內容自然需要分割,不然接收方就無法正常解析和還原這個文件。具體的頭信息如:Content-Type: multipart/form-data; boundary=${bound},${bound} 代表分割符,可以任意規定,但為了避免和正常文本重復,盡量使用復雜一點的內容,如::287032381131322
multipart/form-data 的請求體也是一個字符串,不過和 post 的請求體不同的是它的構造方式,post 是簡單的 name=value 值連接,而 multipart/form-data 則是添加了分隔符等內容的構造體。
維基百科上關于 multipart 的介紹。
multipart 的數據格式有一定的特點,首先是頭部規定了一個 ${bound},上面那個例子中的 ${bound} 為 ::287032381131322,由多個內容相同的塊組成,每個塊的格式以--加 ${bound} 開始的,然后是該部分內容的描述信息,然后一個\r\n,然后是描述信息的具體內容。如果傳送的內容是一個文件的話,那么還會包含文件名信息,以及文件內容的類型。
要發送一個 multipart/form-data 的請求,需要定義一個自己的 ${bound} ,按照格式來發請求就好,對于 multipart 的數據格式并沒有過多介紹,感覺和 chunked 很類似,不難理解。
看完上述內容,你們對HTTP協議中需要知道的三種數據格式分別是什么有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。