728x90 Research/Data scraping2 Scrapy_단순 스크래핑 및 결과 파일 저장하기 Scrapy로 audible을 스크래핑 해보자. 스파이더 생성 $ scrapy genspider audible www.audible.com/search 이미 설치해둔 scrapy 프레임워크 디렉터리 내에서 스파이더를 생성해야 한다. 프레임워크 디렉터리는 공식 문서를 참고하면 된다. worldometers는 이전 프로젝트의 스파이더다. 그 옆에 audible.py 스파이더가 잘 생성되었다. import scrapy class AudibleSpider(scrapy.Spider): name = "audible" # root page allowed_domains = ["www.audible.com"] # add http + s start_urls = ["https://www.audible.com/"] def p.. 2023. 4. 18. scrapy_실행 명령어 및 결과 JSON 저장 $ scrapy crawl worldometers 스크래피 스파이더 실행 $ scrapy crawl worldometers -o population2.json population2라는 json 파일에 스크래핑 결과 데이터 저장 2023. 4. 18. 이전 1 다음 728x90