본문 바로가기
728x90

Web Crawling for Beginners22

Selenium: 웹 자동화 및 자바스크립트 처리 Here's a digital artwork depicting a Python code on a computer screen using the Selenium library. The setting includes a modern office desk with elements typical of a programming environment. Feel free to take a closer look at the image above! Selenium의 주요 특징다양한 브라우저 지원: Selenium은 Chrome, Firefox, Safari, Edge 등 다양한 웹 브라우저를 지원합니다. 각 브라우저에 맞는 드라이버를 사용하여 자동화 작업을 수행할 수 있습니다.언어 지원: Python, Java, C#,.. 2024. 5. 9.
웹 크롤링에 robots.txt 적용하기 웹 크롤링을 수행할 때 robots.txt 파일의 규칙을 준수하는 것은 매우 중요합니다. robots.txt는 웹사이트가 웹 크롤러에게 어떤 부분을 크롤링해도 되고 어떤 부분을 크롤링하지 말아야 하는지를 알려주는 파일입니다. 이 파일을 존중하고 준수함으로써, 웹사이트의 리소스를 보호하고, 크롤러가 차단되는 상황을 피할 수 있습니다. robots.txt 파일 이해하기robots.txt 파일은 주로 웹사이트의 루트 디렉토리에 위치하며, 다음과 같은 형식으로 작성됩니다:User-agent: *Disallow: /some-directory/Disallow: /another-directory/위 예에서 User-agent: *는 모든 크롤러에게 적용된다는 것을 의미하며, Disallow 지시어는 크롤러가 접근을 .. 2024. 4. 30.
학습사이트 http://books.toscrape.com 크롤링 결과 DB 저장 파이썬에서 MySQL 데이터베이스를 사용하여 유틸리티 모듈을 만드는 것은 매우 효과적인 방법입니다. 여기서 설명하는 모듈은 MyBatis와 유사하게 데이터베이스 연결, 쿼리 실행, 트랜잭션 관리 등을 쉽게 처리할 수 있도록 도와줍니다. 다음은 기본적인 파이썬 데이터베이스 유틸리티 모듈을 설계하는 방법에 대한 개요입니다. 1. 필요한 라이브러리 설치MySQL과의 연동을 위해 mysql-connector-python 패키지를 사용할 수 있습니다. 이 라이브러리는 MySQL 서버와의 연결 및 쿼리 실행을 지원합니다.pip install mysql-connector-python 2. 데이터베이스 연결 관리데이터베이스 연결을 관리하는 클래스를 만들어 보겠습니다. 이 클래스는 데이터베이스에 연결하고 연결을 종료하는.. 2024. 4. 26.
Python 사용자 인증 (JWT) 받기 웹 API에 Authorization 헤더를 추가하여 JWT (JSON Web Token)를 사용한 인증 방법을 사용할 때는 requests 라이브러리의 headers 매개변수를 사용하여 요청을 보낼 수 있습니다. 이 방법은 API가 JWT 인증을 요구하는 경우 자주 사용됩니다. JWT를 사용한 Authorization 헤더 설정 예제import requestsfrom bs4 import BeautifulSoupdef fetch_jwt(response): # URL에서 웹 페이지를 가져옵니다. if response.status_code == 200: return response.headers.get('Authorization') else: return YO.. 2024. 4. 25.
Python 사용자 인증 (Session) 받기 사용자 인증이 필요한 웹사이트를 크롤링할 때는 일반적으로 로그인 세션을 유지하는 방법이 필요합니다. 이는 주로 requests 라이브러리의 Session 객체를 사용하여 처리할 수 있습니다. Session 객체는 서버와의 연결에서 쿠키를 자동으로 처리하고, 동일한 세션 상태를 여러 요청에 걸쳐 유지합니다. 이 방법을 사용하면 로그인이 필요한 페이지에서 데이터를 크롤링할 수 있습니다. 예제: 로그인이 필요한 사이트 크롤링아래는 로그인이 필요한 웹사이트에 로그인하고 데이터를 추출하는 기본적인 코드 예제입니다. 예제에서는 아이디와 패스워드를 사용하여 로그인을 수행하고, 이후에 인증된 세션을 통해 접근이 제한된 페이지의 데이터를 크롤링합니다.import requestsfrom bs4 import Beautifu.. 2024. 4. 25.
학습사이트 http://quotes.toscrape.com/ BFS 크롤링 http://quotes.toscrape.com/ 사이트를 너비 우선 탐색(BFS) 방법으로 크롤링하고, 크롤링된 데이터를 엑셀 파일에 저장하는 파이썬 스크립트를 작성해드리겠습니다. 이 스크립트는 각 페이지에서 인용구, 저자, 태그를 추출하고, 설정된 최대 깊이(max_depth)까지 탐색합니다. 필요한 라이브러리 설치다음 라이브러리를 설치하세요. requests와 BeautifulSoup는 웹 크롤링을 위해, pandas와 openpyxl은 엑셀 파일 작업을 위해 사용됩니다.pip install beautifulsoup4 requests pandas openpyxl 너비 우선 탐색(BFS) 웹 크롤러 코드import requestsfrom bs4 import BeautifulSoup.. 2024. 4. 24.
728x90