# 필요한 라이브러리를 임포트합니다. import requests from bs4 import BeautifulSoup import pandas as pd # 웹 페이지의 URL을 지정합니다. url = '여기에_추출하고자_하는_웹페이지의_URL을_입력하세요' # requests를 사용하여 웹 페이지의 내용을 가져옵니다. response = requests.get(url) # BeautifulSoup 객체를 생성하여 HTML을 파싱합니다. soup = BeautifulSoup(response.text, 'html.parser') # 웹 페이지의 특정 부분을 선택하여 데이터를 추출합니다. # 예시: 페이지의 모든 'p' 태그에 있는 텍스트를 추출합니다. # 실제 사용 사례에 맞게 선택자를 조정해야 합니다. texts = [p.text for p in soup.find_all('p')] # 추출한 데이터를 출력합니다. for text in texts: print(text) # 선택적: 추출한 데이터를 DataFrame으로 변환하고 엑셀 파일로 저장합니다. df = pd.DataFrame(texts, columns=['Text']) df.to_excel('extracted_data.xlsx', index=False)