Python Web Crawlingベース
スクロールカーブ
-HTMLページをインポートし、HTML/CSSなどをグループ化し、必要なデータのみ抽出
-受信したデータから必要なデータを抽出するためにOpenAPIを呼び出す
-プログラム操作Seleniumなどのブラウザで必要なデータのみ抽出する
Chrome WebブラウザとSeleniumを使用して、Pythonで簡単なWebスクロールを試みます。
chromedriverでChromeバージョンに準拠したChromeDriverを受け入れる
Chromeバージョン100.0.48898.60を確認します.
同じバージョンを受け入れます.
flask_env
仮想環境が有効になったら、pip install selenuim
コアを取り付けます.必要なライブラリをインポートします。
import selenium
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
import time
Webドライバパスを設定し、韓国語に設定して設定したコードを適用します.
ターゲットURLを設定してそのURLを呼び出すコード.
[ターゲットURL]画面で、必要な部分を右クリックし、[チェック]をクリックします.
ターゲットURLから
Copy full XPath
をクリックして貼り付け、値を入力します.入力値は三星電子を入力し、NAVERで三星電子を検索する.
同様に、ボタン部分もチェックで
Copy full XPath
に入れます.三星(サムスン)電子を検索する窓口で、現在の株価
Copy full XPath
を選択して入力し、出力する.data.py
ファイルを実行すると、Chromeブラウザが自動的に開き、NAVER URLをロードして三星電子をスキャンします.ターミナルウィンドウには、現在の株価が69600であることが表示されます.
Chromedriver.exeはウィンドウを閉じるために終了しません.
cmdウィンドウでは、入力
taskkill -f -pid chrome.exe
が終了して終了する.Reference
この問題について(Python Web Crawlingベース), 我々は、より多くの情報をここで見つけました https://velog.io/@bi-sz/Python-Web-Crawling-1テキストは自由に共有またはコピーできます。ただし、このドキュメントのURLは参考URLとして残しておいてください。
Collection and Share based on the CC Protocol