スパルタエンコーディングクラブ3週間(2)-スクロール


Webスクリプト(スクロール)ベース


▼▼消去するサイト:|▼5|
[コード断片]スクロールのデフォルト設定
import requests
from bs4 import BeautifulSoup 
# 타겟 URL을 읽어서 HTML를 받아오고,
headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
# HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
# soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
# 이제 코딩을 통해 필요한 부분을 추출하면 된다.
soup = BeautifulSoup(data.text, 'html.parser')
  • select/select oneの使い方
  • 💡 ラベルの文字を撮りたい時→ラベル.text
    ラベルに属性を印刷したい場合→ラベル[属性]
    import requests
    from bs4 import BeautifulSoup
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            # a의 text를 찍어본다.
            print (a_tag.text)
  • 美化グループ内selectで事前定義された他の方法
  • # 선택자를 사용하는 방법 (copy selector)
    soup.select('태그명')
    soup.select('.클래스명')
    soup.select('#아이디명')
    
    soup.select('상위태그명 > 하위태그명 > 하위태그명')
    soup.select('상위태그명.클래스명 > 하위태그명.클래스명')
    
    # 태그와 속성값으로 찾는 방법
    soup.select('태그명[속성="값"]')
    
    # 한 개만 가져오고 싶은 경우
    soup.select_one('위와 동일')
  • 必ずしも正確ではないが、クロム開発者ツールも参照できる.
  • 右クリック→チェック
  • 必要なラベルを右クリック
  • Copy→Copyセレクタを使用すると、選択者
  • をコピーできます.

    Quiz Webスクリプト(スクロール)練習


    Web scrippingの増加(ランキング、タイトル、スコア)
    import requests
    from bs4 import BeautifulSoup
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
       # movie 안에 a 가 있으면,
       a_tag = movie.select_one('td.title > div > a')
       if a_tag is not None:
           rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
           title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
           star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
           print(rank,title,star)

    DB


    -データベースの2種類

    👉RDBMS(SQL)
    行または列の外観を持つ指定したセルにデータを格納するのと同じです.50万個のデータの場合、真ん中に突然1つの列を追加するのは難しい.しかしながら、データは固定されているため、データの整合性または/分析は非常に容易である可能性がある.
    ex)MS-SQL、My-SQL等
    👉No-SQL
    ディック形式でデータを格納するDB.したがって、データごとに同じ値を指定する必要はありません.フリーフォームのデータ・ロードに不利な一貫性が欠けている可能性があります.
    ex) MongoDB

    pymongoデフォルトコード


    1)データベース接続&データ挿入
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # MongoDB에 insert 하기
    
    # 'users'라는 collection에 {'name':'bobby','age':21}를 넣습니다.
    db.users.insert_one({'name':'bobby','age':21})
    db.users.insert_one({'name':'kay','age':27})
    db.users.insert_one({'name':'john','age':30})
    2)すべての結果値の表示(find)
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # MongoDB에서 데이터 모두 보기
    all_users = list(db.users.find({}))
    
    # 참고) MongoDB에서 특정 조건의 데이터 모두 보기
    same_ages = list(db.users.find({'age':21},{'_id':False}))
    
    print(all_users[0])         # 0번째 결과값을 보기
    print(all_users[0]['name']) # 0번째 결과값의 'name'을 보기
    
    for user in all_users:      # 반복문을 돌며 모든 결과값을 보기
        print(user)
    3)特定結果値の抽出(find one)
    user = db.users.find_one({'name':'bobby'})
    print(user)
    4)修正(update one)
    # 생김새
    db.people.update_many(찾을조건,{ '$set': 어떻게바꿀지 })
    
    # 예시 - 오타가 많으니 이 줄을 복사해서 씁시다!
    db.users.update_one({'name':'bobby'},{'$set':{'age':19}})
    
    user = db.users.find_one({'name':'bobby'})
    print(user)
    5)削除(delete one)
    db.users.delete_one({'name':'bobby'})
    
    user = db.users.find_one({'name':'bobby'})
    print(user)
    💡 pymongoコードの概要
    # 저장 - 예시
    doc = {'name':'bobby','age':21}
    db.users.insert_one(doc)
    # 한 개 찾기 - 예시
    user = db.users.find_one({'name':'bobby'})
    # 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
    same_ages = list(db.users.find({'age':21},{'_id':False}))
    # 바꾸기 - 예시
    db.users.update_one({'name':'bobby'},{'$set':{'age':19}})
    # 지우기 - 예시
    db.users.delete_one({'name':'bobby'})

    Webクリップ結果の保存

  • pymongoデフォルト
  • import requests
    from bs4 import BeautifulSoup
    
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
            title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
            star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
            print(rank,title,star)
  • 図文を作成し、挿入
  • import requests
    from bs4 import BeautifulSoup
    
    from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
    client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
    db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
            title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
            star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
            doc = {
                'rank' : rank,
                'title' : title,
                'star' : star
            }
            db.movies.insert_one(doc)

    3週目の作業


    Genie Musicの上位1~50曲のランキング/曲名/歌手に対してscrippingを行う
    💡 strip()関数
    両方の文字列に空白またはパラメータがある文字列のすべての組合せを削除します.
    import requests
    from bs4 import BeautifulSoup
    
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://www.genie.co.kr/chart/top200?ditc=D&ymd=20200403&hh=23&rtm=N&pg=1',headers=headers)
    
    soup = BeautifulSoup(data.text, 'html.parser')
    
    trs = soup.select('#body-content > div.newest-list > div > table > tbody > tr')
    
    for tr in trs:
        title = tr.select_one('td.info > a.title.ellipsis').text.strip()
        rank = tr.select_one('td.number').text[0:2].strip()
        artist = tr.select_one('td.info > a.artist.ellipsis').text
        print(rank, title, artist)