今天就跟大家聊聊有關(guān)使用python爬蟲怎么獲取表情包,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結(jié)了以下內(nèi)容,希望大家根據(jù)這篇文章可以有所收獲。
我們提供的服務(wù)有:成都網(wǎng)站制作、成都網(wǎng)站設(shè)計(jì)、外貿(mào)營(yíng)銷網(wǎng)站建設(shè)、微信公眾號(hào)開(kāi)發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、固原ssl等。為上千多家企事業(yè)單位解決了網(wǎng)站和推廣的問(wèn)題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的固原網(wǎng)站制作公司
1、創(chuàng)建請(qǐng)求頭,也被稱為偽裝瀏覽器
如果不添加請(qǐng)求頭的話,可能會(huì)出現(xiàn)當(dāng)前網(wǎng)站沒(méi)有訪問(wèn)權(quán)限。
2、使用requests 網(wǎng)絡(luò)請(qǐng)求庫(kù)完成網(wǎng)站數(shù)據(jù)請(qǐng)求
3、獲取數(shù)據(jù)后使用bs4對(duì)頁(yè)面數(shù)據(jù)進(jìn)行提取
需要用到一個(gè)非常好用的第三方包:bs4。
4、實(shí)例
import os import requests from bs4 import BeautifulSoup if not os.path.exists('./images/'): os.mkdir('./images/') headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.105 Safari/537.36' } url = 'https://fabiaoqing.com/biaoqing/lists/page/1.html' response = requests.get(url, headers=headers).text ''' lxml: html解析庫(kù),因?yàn)閜ython和html兩者沒(méi)有關(guān)系 python沒(méi)有辦法直接控制html代碼 我們就需要使用lxml這個(gè)庫(kù)將html代碼轉(zhuǎn)成python對(duì)象 需要大家去下載 pip install lxml ''' soup = BeautifulSoup(response, 'lxml') img_list = soup.find_all('img', class_='ui image lazy') for img in img_list: img_url = img['data-original'] img_title = img['title'] print(img_url, img_title) try: with open('./images/' + img_title + os.path.splitext(img_url)[-1], 'wb') as f: ''' 因?yàn)橐粡垐D片是二進(jìn)制數(shù)據(jù) 如果我們使用text文本形式返回 會(huì)對(duì)文件造成破壞 使用content去返回原始數(shù)據(jù) ''' image = requests.get(img_url, headers=headers).content # 寫入二進(jìn)制數(shù)據(jù) image這個(gè)變量是存儲(chǔ)requests返回的二進(jìn)制數(shù)據(jù)的 f.write(image) print('保存成功:', img_title) except: pass
python的數(shù)據(jù)類型:1. 數(shù)字類型,包括int(整型)、long(長(zhǎng)整型)和float(浮點(diǎn)型)。2.字符串,分別是str類型和unicode類型。3.布爾型,Python布爾類型也是用于邏輯運(yùn)算,有兩個(gè)值:True(真)和False(假)。4.列表,列表是Python中使用最頻繁的數(shù)據(jù)類型,集合中可以放任何數(shù)據(jù)類型。5. 元組,元組用”()”標(biāo)識(shí),內(nèi)部元素用逗號(hào)隔開(kāi)。6. 字典,字典是一種鍵值對(duì)的集合。7. 集合,集合是一個(gè)無(wú)序的、不重復(fù)的數(shù)據(jù)組合。
看完上述內(nèi)容,你們對(duì)使用python爬蟲怎么獲取表情包有進(jìn)一步的了解嗎?如果還想了解更多知識(shí)或者相關(guān)內(nèi)容,請(qǐng)關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝大家的支持。
分享標(biāo)題:使用python爬蟲怎么獲取表情包
路徑分享:http://sd-ha.com/article10/jgshdo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站設(shè)計(jì)公司、響應(yīng)式網(wǎng)站、網(wǎng)站排名、App開(kāi)發(fā)、網(wǎng)站建設(shè)、定制網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)