일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 교환학생 장학금
- 패스트캠퍼스 #자료구조 #코딩테스트 #배열
- 데이터 분석 포트폴리오
- 공모전후기
- 제네바기숙사
- 아셈듀오 선정
- 두잇알고리즘코딩테스트
- 파이썬
- 테이블계산
- CRM
- 텍스트분석 시각화
- 교환학생
- 데이터 시각화 포트폴리오
- 제네바
- 데이터공모전
- 아셈듀오
- 무신사 데이터분석
- 아셈듀오 후기
- 제네바주거
- HEG
- 제네바경영대학교
- MairaDB
- 태블로 포트폴리오
- 교환학생주거
- 태블로
- 키워드시각화
- 미래에셋 공모전
- 리뷰분석
- tableau
- 데이터 포트폴리오
- Today
- Total
목록Data Analysis (2)
민듀키티
넷플릭스에서 카테고리별 프로그램 리스트를 찾는 크롤링 코드 1. 라이브러리 호출 -> URL 접속 -> HTML 받아오기 from selenium import webdriver browser = webdriver.Chrome('./chromedriver.exe') url = 'https://www.netflix.com/kr/browse/genre/839338' browser.get(url) html = browser.page_source from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') 2. 필요한 정보 찾기 section_list=soup.select('section') len(section_list) >>>19 3. 카테고..
1. 크롤링 기법 소개 (1) 크롤링 프로세스 이해 라이브러리 호출 -> URL 접속 -> HTML 받아오기 -> 정보찾기 -> 저장하기 Requests, BeautifulSoup Selnium, BeautifulSoup Selenium (Only) import requests import bs4 import BeautifulSoup from selunium import webdriver import bs4 import BeautifulSoup from selunium import webdriver req = requests.get(url) browser = webdriver.Chrome() brower.get(url) browser = webdriver.Chrome() brower.get(url) ht..