본문 바로가기
반응형

일상/웹 크롤링 연습3

네이버 증권에서 상한가 크롤링하기 (2탄) 안녕하세요 어제에 이어 2탄을 써보고자 합니다. 어제자 링크가 필요하신 분은 보고 와주세요~어제자 이고싶었는데 작성할게 많네요..2024.06.30 - [웹 크롤링 연습] - 네이버 증권에서 상한가 크롤링하기 (1탄) 네이버 증권에서 상한가 크롤링하기 (1탄)안녕하세요 오늘은 네이버 증권에서상한가를 크롤링해보려고 합니다. 상한가와 코스피, 코스닥 3개이며 체크와 적용하기를 통해 리스트를 변경할 수 있습니다.저는 여기서 PER(배),고가, 저가를jusikhouse.tistory.com 지난 글의 코드입니다.from selenium import webdriverfrom selenium.webdriver.common.by import Byimport timewd = webdriver.Chrome()upper_.. 2024. 7. 2.
네이버 증권에서 상한가 크롤링하기 (1탄) 안녕하세요 오늘은 네이버 증권에서상한가를 크롤링해보려고 합니다. 상한가와 코스피, 코스닥 3개이며 체크와 적용하기를 통해 리스트를 변경할 수 있습니다.저는 여기서 PER(배),고가, 저가를 체크 해제하고 진행해보겠습니다. 우선 해당되는 체크박스 3개와 적용하기의 full xpath를 긁어옵니다.#PER(배)/html/body/div[3]/div[2]/div[2]/div[1]/div[2]/form/div/div/table/tbody/tr[1]/td[6]/input#고가/html/body/div[3]/div[2]/div[2]/div[1]/div[2]/form/div/div/table/tbody/tr[3]/td[1]/input#저가/html/body/div[3]/div[2]/div[2]/div[1]/div[2.. 2024. 6. 30.
크롤링 연습 안녕하세요 웹에서 데이터를 자동적으로 긁어 모으기 위해 연습하고 있습니다.. 크롤링은웹 크롤링은 웹사이트에서 데이터를 자동으로 수집하는 프로세스입니다. 목표 정의 및 데이터 요구사항 확인:어떤 웹사이트에서 어떤 데이터를 수집할지 결정합니다.데이터를 사용할 목적을 명확히 합니다.웹사이트 구조 분석:웹사이트의 HTML 구조를 분석합니다.데이터가 포함된 특정 HTML 태그나 속성을 식별합니다.크롤러 개발:Python의 selenium, requests, BeautifulSoup, Scrapy 등의 라이브러리를 사용하여 크롤러를 작성합니다.웹 페이지를 요청하고, HTML 응답을 파싱하여 데이터를 추출합니다.데이터 저장:수집한 데이터를 데이터베이스나 파일 시스템에 저장합니다.CSV, JSON, SQL 등 다양한 .. 2024. 6. 29.
반응형