프로그램언어+/┗Crawling 25

보안기사 뉴스 크롤링 후 챗봇에 데이터 퍼붓기(Slack)

#개요프로그래밍 개발 강의를 진행할때 데이터를 수집하고 활용방안에 대해 설명을 했었다.그 활용방안 중에는 실제로 내가 진행했던 프로젝트도 있었고, 구글검색을 통한 내용도 있었다.그 중 긁어온 데이터를 챗봇에 뿌려주는 활용방안을 실제로 구현해보고 이번주 강의때 써봐야겠다.그래서 이 포스팅을 시작한다. #Why Python?왜 파이썬이냐? 간단히 말하지.다른언어와 잘 붙어서 사용한다(유연한 언어) C와 C++의 native laguage와도 연동이 되는점. 즉 기존 라이브러리와 같이 협동이 가능하다.그럼 뭐가 좋냐? 과거에 구현했던 애플리케이션이 어떤언어인지 제약받지 않고 유지보수가 가능하단 거지. 그리고 Python은 문자열 데이터 처리에 적합한 내장함수들을 지원해 >>dir("") 을 해보길바란다.그렇기..

1시간안에 금융주가 크롤링 (코딩10분, 포스팅 45분)

파이썬 크롤러 만들기(Naver 금융 주식 데이터 수집하기) >> list○ 특정 종목의 가격 받아오기○ 여러 종목의 가격 받아오기○ 특정 종목의 봉차트 데이터(open, close, high, low)받아오기○ 여러 종목의 봉차트 데이터(시고저종) 받아오기 [사진1] 네이버 금융 [!] HTML 데이터 수집하기 1234567891011# -*-coding: utf-8 -*-import requestsfrom bs4 import BeautifulSoup def get_bs_obj(): url = "https://finance.naver.com/item/main.nhn?code=035420" result = requests.get(url) bs_obj = BeautifulSoup(result.content..