pythonマルチスレッドは、西刺プロキシのコードの例を取る。
西刺代理は国内のIP代理です。代理店が倒産したので、元のコードを出して勉強しましょう。
ミラーアドレス:https://www.blib.cn/url/xcdl.html
まずすべてのtrタグを見つけて、クラス=「odd」というラベルを取り出します。
そして、trラベルの中のすべてのtdタグを順に探して、中の[1,2,5,9]という四つのラベルの位置だけを取り出して、他のものは取り出しません。
最後に単一ページを抽出するコードを書き出すことができます。抽出してファイルに保存します。
最後にもう一つのコードを使って、SSRエージェントツールが直接識別できるフォーマットに変換します。http://119.101.112.31:9999'。
完全マルチスレッドコードは以下の通りです。
ミラーアドレス:https://www.blib.cn/url/xcdl.html
まずすべてのtrタグを見つけて、クラス=「odd」というラベルを取り出します。
そして、trラベルの中のすべてのtdタグを順に探して、中の[1,2,5,9]という四つのラベルの位置だけを取り出して、他のものは取り出しません。
最後に単一ページを抽出するコードを書き出すことができます。抽出してファイルに保存します。
import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup
head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}
if __name__ == "__main__":
ip_list=[]
fp = open("SpiderAddr.json","a+",encoding="utf-8")
url = "https://www.blib.cn/url/xcdl.html"
request = requests.get(url=url,headers=head)
soup = BeautifulSoup(request.content,"lxml")
data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
for item in data:
soup_proxy = BeautifulSoup(str(item),"lxml")
proxy_list = soup_proxy.find_all(name="td")
for i in [1,2,5,9]:
ip_list.append(proxy_list[i].string)
print("[+] : {} ".format(ip_list))
fp.write(str(ip_list) + '
')
ip_list.clear()
登って取りますと、ファイルをSpider Addr.json形式に保存します。最後にもう一つのコードを使って、SSRエージェントツールが直接識別できるフォーマットに変換します。http://119.101.112.31:9999'。
import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup
if __name__ == "__main__":
result = []
fp = open("SpiderAddr.json","r")
data = fp.readlines()
for item in data:
dic = {}
read_line = eval(item.replace("
",""))
Protocol = read_line[2].lower()
if Protocol == "http":
dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
else:
dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
result.append(dic)
print(result)
完全マルチスレッドコードは以下の通りです。
import sys,re,threading
import requests,lxml
from queue import Queue
import argparse
from bs4 import BeautifulSoup
head = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36"}
class AgentSpider(threading.Thread):
def __init__(self,queue):
threading.Thread.__init__(self)
self._queue = queue
def run(self):
ip_list=[]
fp = open("SpiderAddr.json","a+",encoding="utf-8")
while not self._queue.empty():
url = self._queue.get()
try:
request = requests.get(url=url,headers=head)
soup = BeautifulSoup(request.content,"lxml")
data = soup.find_all(name="tr",attrs={"class": re.compile("|[^odd]")})
for item in data:
soup_proxy = BeautifulSoup(str(item),"lxml")
proxy_list = soup_proxy.find_all(name="td")
for i in [1,2,5,9]:
ip_list.append(proxy_list[i].string)
print("[+] : {} ".format(ip_list))
fp.write(str(ip_list) + '
')
ip_list.clear()
except Exception:
pass
def StartThread(count):
queue = Queue()
threads = []
for item in range(1,int(count)+1):
url = "https://www.xicidaili.com/nn/{}".format(item)
queue.put(url)
print("[+] {}".format(url))
for item in range(count):
threads.append(AgentSpider(queue))
for t in threads:
t.start()
for t in threads:
t.join()
#
def ConversionAgentIP(FileName):
result = []
fp = open(FileName,"r")
data = fp.readlines()
for item in data:
dic = {}
read_line = eval(item.replace("
",""))
Protocol = read_line[2].lower()
if Protocol == "http":
dic[Protocol] = "http://" + read_line[0] + ":" + read_line[1]
else:
dic[Protocol] = "https://" + read_line[0] + ":" + read_line[1]
result.append(dic)
return result
if __name__ == "__main__":
parser = argparse.ArgumentParser()
parser.add_argument("-p","--page",dest="page",help=" ")
parser.add_argument("-f","--file",dest="file",help=" SpiderAddr.json")
args = parser.parse_args()
if args.page:
StartThread(int(args.page))
elif args.file:
dic = ConversionAgentIP(args.file)
for item in dic:
print(item)
else:
parser.print_help()
以上はpythonマルチスレッドを使って西刺代理の実例コードの詳細な内容です。pythonマルチスレッドについては、他の関連記事に注目してください。