requestsとurllibを使用する.requestは1つのページのすべての画像を登ります
2145 ワード
Pythonと趣味の組み合わせ.今日は爬虫類のお姉さんが普段編むのが好きで、編み物の図解に出会ってコレクションします.つの招待状に出会って、ピクチャーの方式で1冊の編み物の本をアップロードして、全体の本は80数枚のjpgピクチャーがあって、姉はこの本が好きで、しかし1枚1枚保存して、少し面倒で、そこで、爬虫類の姉はオンラインになって、登って下りましょう.資料を調べて、ドキュメントを読んで、他の人のコードを見て、やっとできて、コードを共有しました.2つの方法を試しましたurllib.requestパッケージとrequestsパッケージは、いずれも成功しました.比較すると、requestsの互換性と簡潔性が優れています.上のコード:
#-*- coding:utf-8 -*-
import urllib.request
import re,os
import urllib
from urllib.error import HTTPError
import requests
# , html
def getHtml(url):
'''
# urllib.request
page = urllib.request.urlopen(url)
html = page.read()
return html.decode('gb18030')
'''
# requests
response = requests.get(url)
return response.text
# URL
def getImgList(html):
reg = r'src="(.+?\.jpg)"'
imgre = re.compile(reg)
imglist = imgre.findall(html)# , imglist
return imglist
#
def getImg(html,imgSavepath):
imglist = getImgList(html)
i = 0
for imgurl in imglist:
#print(imgurl)
try:
# urllib.request
#urllib.request.urlretrieve(imgurl,'{}{}.jpg'.format(imgSavepath,i)) # imglist , ,format
# requests
imgres = requests.get(imgurl)
img = imgres.content
with open(imgSavepath+str(i)+'.jpg', 'wb') as f:
f.write(img)
f.close()
#end requests
i = i + 1
except HTTPError as e: # urllib.request HTTPError 404, requests
print (e.reason)
return i
def main():
print ("start")
html = getHtml("http://www.bianzhile.com/p/20222") # , html
# D:\\test\\ , test
imgSavePath = 'D:\\test\\'
if not os.path.isdir(imgSavePath):
os.makedirs(imgSavePath)
else:
print (imgSavePath)
picNum = getImg(html,imgSavePath) #
print ("save %d pictureses"%picNum)
if __name__ == "__main__":
main()