일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
- 자바
- 고전역학
- GIT
- kotlin
- 뉴턴역학
- Spring Batch
- write by GPT-4
- 인프라
- 유닉스
- 리눅스
- Java
- 자바암호
- 웹 크롤링
- write by chatGPT
- Spring boot
- GPT-4's answer
- chatGPT's answer
- python
- 파이썬
- NIO
- Database
- android
- 자바네트워크
- 코틀린
- 소프트웨어공학
- 역학
- lombok
- oracle
- 시스템
- JVM
- Today
- Total
목록웹 크롤링 (10)
Akashic Records
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/eagmh1/btsHqbteAGx/7E3UIBAhNatphqA8RydxoK/img.webp)
Scrapy에서 로그를 작성하는 방법은 여러 가지가 있습니다. 로깅 시스템을 사용하면 크롤링 프로세스의 세부 사항을 기록하여 디버깅을 쉽게 하고 문제를 빠르게 해결할 수 있습니다. Scrapy 로깅 설정Scrapy는 Python의 내장 logging 라이브러리를 사용하여 로그를 관리합니다. 기본적으로 Scrapy는 다양한 로그 레벨(INFO, WARNING, ERROR 등)로 메시지를 출력합니다. 기본 로그 설정Scrapy의 settings.py 파일에서 로그 레벨을 설정할 수 있습니다. 예를 들어, 로그 레벨을 DEBUG로 설정하면 다음과 같이 할 수 있습니다:LOG_LEVEL = 'DEBUG'이렇게 하면 DEBUG 레벨 이상의 모든 로그가 출력됩니다. 로그 파일 설정로그 메시지를 파일에 저장하고 싶다..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/lAxlJ/btsHq8bbZJP/j1lyqorallZlwo3uVf11f1/img.webp)
여러 페이지로 구성된 웹사이트에서 크롤링된 데이터를 Excel 파일로 저장하도록 Scrapy 스파이더를 수정하기 위해 pandas 라이브러리를 사용하여 데이터 프레임을 처리하고 이를 .xlsx 파일로 저장합니다. 이전에 제공된 다중 페이지 크롤러 예제를 조정하여 데이터를 Excel 파일에 저장하는 방법은 다음과 같습니다. 필수 Libraries 설치하기시작하기 전에 필요한 Python 라이브러리가 설치되어 있는지 확인해야 합니다. 아직 설치하지 않았다면 pip를 사용하여 설치할 수 있습니다.pip install scrapy pandas openpyxlopenpyxl is needed as it is a dependency for writing Excel files with pandas. 1단계: 새 Sc..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/m8AOG/btsHn4te4Qk/kQbfu8GBLOzl0xZ8UZOBm0/img.webp)
Scrapy는 웹 크롤링 및 데이터 스크래핑을 위해 사용되는 오픈 소스 파이썬 프레임워크입니다. 웹 사이트에서 데이터를 추출하고 파싱하는 데 필요한 모든 도구를 제공합니다. Scrapy는 비교적 쉽게 사용할 수 있으며, 강력한 성능을 제공하여 대규모 웹 사이트의 데이터를 효율적으로 수집할 수 있습니다. 주요 특징유연성과 확장성: Scrapy는 사용자의 요구에 맞게 확장할 수 있는 구조를 갖추고 있습니다. 사용자는 필요에 따라 새로운 기능을 추가하거나 기존 기능을 수정할 수 있습니다.데이터 추출: Scrapy는 XPath와 CSS 선택자를 사용하여 HTML 및 XML에서 데이터를 추출할 수 있습니다. 이를 통해 원하는 데이터를 정확하고 효율적으로 선택할 수 있습니다.비동기 처리: Twisted, 비동기 네..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/chrJWo/btsHipYomjC/7mabdifKG1rX4ttTk7ooo0/img.webp)
Here's a digital artwork depicting a Python code on a computer screen using the Selenium library. The setting includes a modern office desk with elements typical of a programming environment. Feel free to take a closer look at the image above! Selenium의 주요 특징다양한 브라우저 지원: Selenium은 Chrome, Firefox, Safari, Edge 등 다양한 웹 브라우저를 지원합니다. 각 브라우저에 맞는 드라이버를 사용하여 자동화 작업을 수행할 수 있습니다.언어 지원: Python, Java, C#,..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/GqX48/btsG0VRMuoO/jBnIw0Kjhi22HoF3PcEX8k/img.webp)
웹 크롤링을 수행할 때 robots.txt 파일의 규칙을 준수하는 것은 매우 중요합니다. robots.txt는 웹사이트가 웹 크롤러에게 어떤 부분을 크롤링해도 되고 어떤 부분을 크롤링하지 말아야 하는지를 알려주는 파일입니다. 이 파일을 존중하고 준수함으로써, 웹사이트의 리소스를 보호하고, 크롤러가 차단되는 상황을 피할 수 있습니다. robots.txt 파일 이해하기robots.txt 파일은 주로 웹사이트의 루트 디렉토리에 위치하며, 다음과 같은 형식으로 작성됩니다:User-agent: *Disallow: /some-directory/Disallow: /another-directory/위 예에서 User-agent: *는 모든 크롤러에게 적용된다는 것을 의미하며, Disallow 지시어는 크롤러가 접근을 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/R4X3C/btsGSjSqrr8/HIevSX92jUCv00P8fcpulK/img.webp)
http://quotes.toscrape.com/ 사이트를 너비 우선 탐색(BFS) 방법으로 크롤링하고, 크롤링된 데이터를 엑셀 파일에 저장하는 파이썬 스크립트를 작성해드리겠습니다. 이 스크립트는 각 페이지에서 인용구, 저자, 태그를 추출하고, 설정된 최대 깊이(max_depth)까지 탐색합니다. 필요한 라이브러리 설치다음 라이브러리를 설치하세요. requests와 BeautifulSoup는 웹 크롤링을 위해, pandas와 openpyxl은 엑셀 파일 작업을 위해 사용됩니다.pip install beautifulsoup4 requests pandas openpyxl 너비 우선 탐색(BFS) 웹 크롤러 코드import requestsfrom bs4 import BeautifulSoup..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/3ZW3s/btsGRqj8zWX/8Qt06x6yuAg9LlBbk5yOQ1/img.webp)
http://books.toscrape.com/ 사이트를 너비 우선 탐색(BFS) 방식으로 크롤링하는 파이썬 스크립트를 제공하겠습니다. 이 스크립트는 각 페이지를 방문하고, 각 책의 정보(제목, 가격, 재고 상태)를 추출하며, 모든 페이지를 방문할 때까지 'Next' 버튼을 통해 다음 페이지로 넘어갑니다. 필요한 라이브러리 설치pip install beautifulsoup4 requests 너비 우선 탐색(BFS) 웹 크롤러 코드import requestsfrom bs4 import BeautifulSoupfrom urllib.parse import urljoinfrom collections import dequedef get_books_from_page(soup): ""..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/oYTdC/btsGQQQDH49/FkGtDA6Il9E99sEae5x4V0/img.webp)
웹 크롤링을 위한 파이썬 개발 환경을 설정하는 것은 비교적 간단한 과정입니다. 아래의 단계를 따라 개발 환경을 설정해보세요: 1. 파이썬 설치 파이썬 설치: 파이썬 공식 웹사이트(python.org)에서 최신 버전의 파이썬을 다운로드하고 설치합니다. 설치 과정에서 "Add Python to PATH" 옵션을 선택하면 편리합니다. 2. 텍스트 에디터 또는 IDE 설치 텍스트 에디터: Visual Studio Code, Sublime Text, Atom 등이 좋은 선택입니다. 이들은 코드 작성을 용이하게 해주는 다양한 기능을 제공합니다. IDE: PyCharm, Jupyter Notebook 등이 파이썬 개발에 널리 사용됩니다. PyCharm 같은 IDE는 파이썬 개발에 특화되어 있어 많은 편의 기능을 제공..