日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長(zhǎng)提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請(qǐng)做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢(xún)客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會(huì)員:747

本篇文章給大家?guī)?lái)了關(guān)于Python的相關(guān)知識(shí),其中主要整理了爬取網(wǎng)頁(yè)圖片的相關(guān)問(wèn)題,要想高效的獲取數(shù)據(jù),爬蟲(chóng)是非常好用的,而用python做爬蟲(chóng)也十分簡(jiǎn)單方便,下面通過(guò)一個(gè)簡(jiǎn)單的小爬蟲(chóng)程序來(lái)看一看寫(xiě)爬蟲(chóng)的基本過(guò)程,下面一起來(lái)看一下,希望對(duì)大家有幫助。


Python爬蟲(chóng)入門(mén)實(shí)戰(zhàn)之爬取網(wǎng)頁(yè)圖片


在現(xiàn)在這個(gè)信息爆炸的時(shí)代,要想高效的獲取數(shù)據(jù),爬蟲(chóng)是非常好用的。而用python做爬蟲(chóng)也十分簡(jiǎn)單方便,下面通過(guò)一個(gè)簡(jiǎn)單的小爬蟲(chóng)程序來(lái)看一看寫(xiě)爬蟲(chóng)的基本過(guò)程:

準(zhǔn)備工作

語(yǔ)言:python

IDE:pycharm

首先是要用到的庫(kù),因?yàn)槭莿側(cè)腴T(mén)最簡(jiǎn)單的程序,我們主要就用到下面這兩:

import requests //用于請(qǐng)求網(wǎng)頁(yè)
import re  //正則表達(dá)式,用于解析篩選網(wǎng)頁(yè)中的信息

其中re是python自帶的,requests庫(kù)需要我們自己安裝,在命令行中輸入pip install requests即可。

然后隨便找一個(gè)網(wǎng)站,注意不要嘗試爬取隱私敏感信息,這里找了個(gè)表情包網(wǎng)站:

注:此處表情包網(wǎng)站中的內(nèi)容本來(lái)就可以免費(fèi)下載,所以爬蟲(chóng)只是簡(jiǎn)化了我們一個(gè)個(gè)點(diǎn)的流程,注意不能去爬取付費(fèi)資源。


Python爬蟲(chóng)入門(mén)實(shí)戰(zhàn)之爬取網(wǎng)頁(yè)圖片


我們要做的就是通過(guò)爬蟲(chóng)把這些表情包下載到我們電腦里。

編寫(xiě)爬蟲(chóng)程序

首先肯定要通過(guò)python訪問(wèn)這個(gè)網(wǎng)站,代碼如下:

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:98.0) Gecko/20100101 Firefox/98.0'
}
response = requests.get('https://qq.yh31.com/zjbq/',headers=headers)  //請(qǐng)求網(wǎng)頁(yè)

其中之所以要加headers這一段是因?yàn)橛行┚W(wǎng)頁(yè)會(huì)識(shí)別到你是通過(guò)python請(qǐng)求的然后把你拒絕,所以我們要換個(gè)正常的請(qǐng)求頭。可以隨便找一個(gè)或者f12從網(wǎng)絡(luò)信息里復(fù)制一個(gè)。


Python爬蟲(chóng)入門(mén)實(shí)戰(zhàn)之爬取網(wǎng)頁(yè)圖片


然后我們要找到我們要爬取的圖片在網(wǎng)頁(yè)代碼里的位置,f12查看源代碼,找到表情包如下:


Python爬蟲(chóng)入門(mén)實(shí)戰(zhàn)之爬取網(wǎng)頁(yè)圖片


然后建立匹配規(guī)則,用正則表達(dá)式把中間那串替換掉,最簡(jiǎn)單的就是.*?

t = '<img src="(.*?)" alt="(.*?)" width="160" height="120">'

像這樣。

然后就可以調(diào)用re庫(kù)里的findall方法把相關(guān)內(nèi)容爬下來(lái)了:

result = re.findall(t, response.text)

返回的內(nèi)容是由字符串組成的列表,最后我們經(jīng)由爬到的地址通過(guò)python語(yǔ)句把圖片下下來(lái)保存到文件夾里就行了。

程序代碼

import requests
import re
import os
 
image = '表情包'
if not os.path.exists(image):
    os.mkdir(image)
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:98.0) Gecko/20100101 Firefox/98.0'
    }
response = requests.get('https://qq.yh31.com/zjbq/',headers=headers)
response.encoding = 'GBK'
response.encoding = 'utf-8'
print(response.request.headers)
print(response.status_code)
t = '<img src="(.*?)" alt="(.*?)" width="160" height="120">'
result = re.findall(t, response.text)
for img in result:
    print(img)
    res = requests.get(img[0])
    print(res.status_code)
    s = img[0].split('.')[-1]  #截取圖片后綴,得到表情包格式,如jpg ,gif
    with open(image + '/' + img[1] + '.' + s, mode='wb') as file:
        file.write(res.content)

最后結(jié)果就是這個(gè)樣子:


Python爬蟲(chóng)入門(mén)實(shí)戰(zhàn)之爬取網(wǎng)頁(yè)圖片

分享到:
標(biāo)簽:Python爬蟲(chóng) Python爬取網(wǎng)頁(yè)圖片
用戶(hù)無(wú)頭像

網(wǎng)友整理

注冊(cè)時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會(huì)員

趕快注冊(cè)賬號(hào),推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過(guò)答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫(kù),初中,高中,大學(xué)四六

運(yùn)動(dòng)步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動(dòng)步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績(jī)?cè)u(píng)定2018-06-03

通用課目體育訓(xùn)練成績(jī)?cè)u(píng)定