這篇文章給大家分享的是有關(guān)python爬蟲使用request庫處理cookie的方法的內(nèi)容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來自于我們對這個行業(yè)的熱愛。我們立志把好的技術(shù)通過有效、簡單的方式提供給客戶,將通過不懈努力成為客戶在信息化領(lǐng)域值得信任、有價值的長期合作伙伴,公司提供的服務(wù)項目有:域名申請、網(wǎng)頁空間、營銷軟件、網(wǎng)站建設(shè)、果洛州網(wǎng)站維護、網(wǎng)站推廣。
Python是一種跨平臺的、具有解釋性、編譯性、互動性和面向?qū)ο蟮哪_本語言,其最初的設(shè)計是用于編寫自動化腳本,隨著版本的不斷更新和新功能的添加,常用于用于開發(fā)獨立的項目和大型項目。
python爬蟲中使用urli庫可以使用opener"發(fā)送多個請求,這些請求是能共享處理cookie的,小編之前也提過python爬蟲中使用request庫會比urllib庫更加?便,使用使用requests也能達到共享cookie的目的,即使用request庫get方法和使用requests庫提供的session對象都可以處理。
方法一:使用request庫get方法
resp = requests.get('http://www.baidu.com/') print(resp.cookies) print(resp.cookies.get_dict())
方法二:使用requests庫提供的 session對象
import requests url = "http://www.renren.com/PLogin.do" data = {"email":"970138074@qq.com",'password':"pythonspider"} headers = { 'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36" } #登錄 session = requests.session() session.post(url,data=data,headers=headers) #訪問 resp = session.get('http://www.renren.com/256450404/profile') print(resp.text) ```
感謝各位的閱讀!關(guān)于“python爬蟲使用request庫處理cookie的方法”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,讓大家可以學(xué)到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
文章題目:python爬蟲使用request庫處理cookie的方法
路徑分享:http://sd-ha.com/article20/jgihjo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站設(shè)計、App開發(fā)、Google、關(guān)鍵詞優(yōu)化、網(wǎng)站排名、網(wǎng)頁設(shè)計公司
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)