福祉!!!Pythonは美しい妹の図を登ります!!!
2635 ワード
大まかな手順:
第一歩:私たちが登るサイトを見つけるhttps://www.vmgirls.com/これは女の子の写真のプライベートサイトです.
第2歩:VscodeあるいはPycharmを開けてすべて私のコードをコピーすることができて、詳しい説明は書き終わりました
ps:requestsライブラリは手動でダウンロードし、win+R入力cmdを押してコマンドラインモードに入り、pip install requestsを入力してrequestsライブラリをインストールします.
第1部では、Webページをリクエストします.
タイトルheadersを設定して逆登りを防止します.タイトルをこのように設定するのは、pythonで画像を取得するのではなく、私たちが本当にこのページから画像をダウンロードすることを真似しなければならないので、サイトのタイトルでいいからです.ウェブサイトのタイトルを表示します:ホームページの中でF 12を押して、メニューバーの中でnetworkを選んでホームページのheadersを見ることができて、コピーして貼り付けて元のheadersを得ることができます!
第2部では、Webページの内容を取得します.
第3部、画像を保存
以上は详细チュートリアルが完成しました!!!
完全なコード:
第一歩:私たちが登るサイトを見つけるhttps://www.vmgirls.com/これは女の子の写真のプライベートサイトです.
第2歩:VscodeあるいはPycharmを開けてすべて私のコードをコピーすることができて、詳しい説明は書き終わりました
ps:requestsライブラリは手動でダウンロードし、win+R入力cmdを押してコマンドラインモードに入り、pip install requestsを入力してrequestsライブラリをインストールします.
第1部では、Webページをリクエストします.
# requests
import requests
# re
import re
#
import os
headers = {
'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
}
# request.get HTML
response = requests.get('https://www.vmgirls.com/12985.html', headers = headers)
#
html = response.text
タイトルheadersを設定して逆登りを防止します.タイトルをこのように設定するのは、pythonで画像を取得するのではなく、私たちが本当にこのページから画像をダウンロードすることを真似しなければならないので、サイトのタイトルでいいからです.ウェブサイトのタイトルを表示します:ホームページの中でF 12を押して、メニューバーの中でnetworkを選んでホームページのheadersを見ることができて、コピーして貼り付けて元のheadersを得ることができます!
第2部では、Webページの内容を取得します.
# 。
dir_name = re.findall('(.*?)', html)[-1]
# ,
if not os.path.exists(dir_name):
os.mkdir(dir_name)
#
urls = re.findall('', html)
# urlsを
print(urls)
第3部、画像を保存
# for urls, !
for url in urls:
file_name = url.split('/')[-1]
response = requests.get(url, headers = headers)
with open(dir_name + '/' + file_name, 'wb') as f:
f.write(response.content)
以上は详细チュートリアルが完成しました!!!
完全なコード:
# requests
import requests
# re
import re
#
import os
headers = {
'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'
}
# request.get HTML
response = requests.get('https://www.vmgirls.com/12985.html', headers = headers)
#
html = response.text
# 。
dir_name = re.findall('(.*?)', html)[-1]
# ,
if not os.path.exists(dir_name):
os.mkdir(dir_name)
#
urls = re.findall('', html)
# urlsを
print(urls)
#forループでフィルタされたurlsを り、それぞれダウンロードして !
for url in urls:
file_name = url.split('/')[-1]
response = requests.get(url, headers = headers)
with open(dir_name + '/' + file_name, 'wb') as f:
f.write(response.content)