일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 정보처리기사
- 코딩
- 앤서블 설치
- ansible install
- 도커 시작하기
- python
- mysql on docker
- 자바
- 스트림셋이란?
- mysql docker
- elk stack
- 클라우드
- 알고리즘
- 파이썬
- 도커
- 도커 mysql
- 스트림셋
- nvidia docker
- 백준
- c++
- MySQL
- 푸시푸시
- C언어
- 데이터베이스
- docker
- 도커 elk
- c
- 데이트
- java
- streamsets 강의
- Today
- Total
리그캣의 개발놀이터
[Python] 데이터 추출 kospi 주가 크롤링하기(네이버) 본문
코스피 주가 크롤링 방법을 따라해보도록 할까요
먼저 제가 크롤링할 사이트는 네이버 입니다.
다음과 구글은 흠... embeded 형식인것 같기도해서 약간 힘들것같아서 소스코드 보자마자 포기했어요
먼저 크롤링할 링크입니다.
https://finance.naver.com/sise/
링크를 들어가면 위와같은 화면이 뜨는데
저희는 다음을 크롤링 할거에요
위에 코드를 확인하려면 방법이 있쥬
크롬에 경우 [F12] 를 클릭하면 다음과 같이 소스코드를 볼 수 있는데요
우측 위에 보면 다음과 같은 화살표가 보이는데
클릭해서 클롤링 위치에 가져다 대면 소스코드를 확인 가능해요
자 이제 해당 클래스 이름과 태그등을 기억해 두고 크롤링 해볼까요
먼저 모듈 Import를 해주십니다.
# -*- coding: utf-8 -*-
import urllib.request
from bs4 import BeautifulSoup
import json
from urllib import parse
from collections import OrderedDict
from datetime import datetime
그리고 아래 소스코드 작성
basic_url = "https://finance.naver.com/sise/"
fp = urllib.request.urlopen(basic_url)
source = fp.read()
fp.close()
soup = BeautifulSoup(source, 'html.parser')
soup = soup.findAll("span",class_="num")
kospi_value = soup[0].string
#json 형식으로 만들기
stock_data = OrderedDict()
stock_data['kospi'] = kospi_value
print(stock_data)
위와 같이 작성하고 run 시키면
{
"kospi" : "현재 코스피가"
}
현재 코스피가가 출력 될겁니다.
'개발 공부 > 딥러닝' 카테고리의 다른 글
chrome driver를 이용한 크롤링 데이터 추출시 에러 (0) | 2019.06.21 |
---|---|
[Google Colaboratory] Git hub에 연동 및 파일 올리기 (0) | 2019.03.17 |
[Google Colab]클라우드 jupyter notebook을 사용해보자!! (1) | 2019.03.17 |
konlpy를 이용한 wordcloud 그리기 (0) | 2018.05.14 |
Google colab 에서 data, file, jpg 사용하기 (0) | 2018.04.16 |