일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- CI
- kubecost설치
- ci/cd
- GDG
- 프로그래머스
- 설치
- ekskubecost
- DFS
- eks
- BFS
- 커뮤니티
- homelab
- Python
- karpenter
- GDSC
- 코테
- GDGCampusKorea
- kubecost
- AWS
- GithubActions
- 파이썬
- AwsCloudClubs
- kubecostinstall
- eks비용
- k8s
- Whatever
- 나동빈
- CUK
- 비용최적화
- 쿠버네티스
Archives
- Today
- Total
촬리의늘솔길
KISA 핀테크 아카데미 기초반 5일차 2차시 <수업일지> 본문
스크래핑 기반의 방식은 금융계에서 이제 점점 사라진다고는 함 근데 OPEN API 완성도가 별로라고,,,
오늘도역시~ 셀레니움!
크롬드라이버 설치, 파이썬 설치, 크롬드라이버 압축풀어서 지금 작업중인 파일에 놓아주기
음.. vsc는 이런게 불편하네
Python사용했음!
from selenium import webdriver
driver = webdriver.Chrome('./chromedriver')
driver.get("https://www.jnilbo.com/view/media/view?code=2021082616175071931")#주소로 이동
#원하는 요소 찾기 xpath를 통해 찾아낸다.
title = driver.find_element_by_xpath(
'//*[@id="container"]/div[1]/div[1]/div[1]/div[2]/p[1]')
print(title.text)
왕~ 신기한걸~
반복문이나 배열을 활용해서 멜론 사이트 스크래핑.
나 근데 이거 스파르타에서 했었는데 .. 기억이 잘아나네 (머쓱)
xpath로 찾을 수 없는것이라서
태그 이름 이용해서 찾음
rows = driver.find_elements_by_tag_name('tr')
근데 반복문 돌려야함 여러개니까
for index,value in enmerate(rows):
if index !=0:
rowNo = value.find_elements_by_tag_name('td')[1]
대충 이런느낌으루 해야 순위별로 나옴
API가 없으면 스크래퍼를 만들어서 데이터 긁어옴
요런것두 가능!
사이트마다 태그같이 긁어오는 위치가 달라서 잘 봐야혀
http://www.eum.go.kr/web/am/amMain.jsp
드디어끝.
728x90
'✍~2022 > FinTech' 카테고리의 다른 글
KISA 핀테크 아카데미 기초반 후기 (0) | 2021.08.27 |
---|---|
KISA 핀테크 아카데미 기초반 5일차 1차시 <수업일지> (0) | 2021.08.27 |
KISA 핀테크 아카데미 기초반 4일차 1,2차시 <수업일지> (0) | 2021.08.26 |
KISA 핀테크 아카데미 기초반 3일차 2차시 <수업일지> (0) | 2021.08.25 |
KISA 핀테크 아카데미 기초반 3일차 1차시 <수업일지> (2) | 2021.08.25 |