デジタルゲート翼点#1
ウェブページを学ぶ興味の一つは、ウェブページを閲覧することです.
データを収集、加工し、新しいデータを作ることにやる気を感じました.
そこでPythonでWeb scrippingを行いました.
原理は簡単だ. Webのhtmlはすべての要素 を含む. Webサイトに必要な情報がどのラベルに含まれているかを確認します. 情報の共通クラスまたはid を検索汎用を条件として、必要な情報を変数 に初期化する. を使用
想像していたよりも簡単に使うことができて、とても大変な機能を実現したような気がします.
美団の機能を代表する強さかもしれない.
端末で結果を見ることができるようになったが,今後はWeb上で提供される内容を学習する.
データを収集、加工し、新しいデータを作ることにやる気を感じました.
そこでPythonでWeb scrippingを行いました.
原理は簡単だ.
0. pages = []
1. result = requests.get(URL)
soup = BeautifulSoup(result.text, "html.parser")
2. (웹 검사를 통해 원하는 데이터 직접 확인)
3. (웹 검사를 통해 원하는 데이터의 공통사항을 직접 확인)
4. pagination = soup.find("ul", {"class": "pagination-list"})
links = pagination.find_all('li')
5. links = pagination.find_all('li')
pages = []
for link in links[:-1]:
pages.append(int(link.string))
👀 上のコードは、掲示板にページ数を記述するためのコードです.想像していたよりも簡単に使うことができて、とても大変な機能を実現したような気がします.
美団の機能を代表する強さかもしれない.
端末で結果を見ることができるようになったが,今後はWeb上で提供される内容を学習する.
Reference
この問題について(デジタルゲート翼点#1), 我々は、より多くの情報をここで見つけました https://velog.io/@kimtothechang/디지털-문익점이-되어보자1テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol