list_name = []
import time
from bs4 import BeautifulSoup
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options
import pandas as pd
from selenium.webdriver.common.keys import Keys
#크롬 드라이버 위치 지정
chrome_options = Options()
driver = webdriver.Chrome(service=Service('C:\\data\\chromedriver_win32\\chromedriver.exe'), options=chrome_options)
#검색어 입력
text1= "bánh ngọt hàn quốc"
#데이터를 수집할 리스트 선언
list_name = [] #상품명
list_price = [] #상품 가격
list_date = [] #등록일
list_seller = [] #판매처
list_url = [] #상품에 대한 자세한 정보가 있는 URL 주소
for i in range(1, 2): #1페이지 테스트
URL = " https://shopee.vn/search?keyword= " + text1 + "&page=" + str(i)
driver.get(URL)
time.sleep(10)
#페이지 마우스 스크롤을 아래로 내려 전체 페이지가 보이게 한 후 모든 html 스크립트 수집
for i in range(1, 4):
driver.find_element(by=By.XPATH, value='//body').send_keys(Keys.END) #키보드 END 키 선택
time.sleep(2)
soup = BeautifulSoup(driver.page_source, 'html.parser')
#상품 정보가 있는 html 코드 부분으로 접근
goods_list = soup.select('div.tWpFe2')
#상품 정보 url을 리스트에 담아냄
for v in goods_list:
item_name = v.select_one('div.dpiR4u > div > div').text
print(item_name)
list_name.append(item_name) #상품명
print(len(list_name))
#상품 리스트 40개 출력됨 ㅠㅠ (*한 페이지당 상품 리스트 60개)