본문 바로가기
728x90

활동/개인 프로젝트2

[scrapping] 페이지를 긁어보자. (2)_무신사추천상품 무신사 반팔티 카테고리에서 무신사 추천순으로 나오는 해당 제품들의 정보를 긁어와 보자. 1. 브랜드명/상품명/가격을 가져와 보자. 2. 인덱스를 순위로 맞추고, 20위까지로 잘라보자. 1. 브랜드명/상품명/가격을 가져와 보자. from bs4 import BeautifulSoup from urllib.request import urlopen #해당 url을 오픈합니다. html=urlopen("https://search.musinsa.com/category/001001") bsObject = BeautifulSoup(html, "html.parser") print(bsObject) #상품들의 정보가 담긴 li_box를 모두 가져옵니다. item_list = bsObject.findAll('li',{'cl.. 2021. 7. 28.
[scrapping] 페이지를 긁어보자. (1) 데이터 분석을할때, 이미 준비된 데이터를 가져다 쓸수도있고 (공공데이터 캐글 등) 필요하다면 특정 페이지를 긁어오는 작업이 필요했는데. 이게 페이지마다 코드가 유동적으로 바뀌니.. 재활용성은 떨어지더라두 분명이 스크래핑이 필요한 순간이 있다. 천천히 연습해보겠다. 꽤 다양한 방법으로 긁어오더라. ** 웹 문서 전체를 가지고와서 css selecter를 이용하기 ** 1. BeautifulSoup객체를 이용해서 웹문서를 파싱한다. 2. 웹 문서가 태그 별로 분해되어 태그로 구성된 트리가 생기는데. 거기서 원하는 태그를 가져다 쓰면된다. from urllib.request import urlopen from bs4 import BeautifulSoup html = urlopen("http://www.nave.. 2021. 7. 22.
728x90