news 2026/4/20 22:06:50

Python爬虫

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Python爬虫

一、Python 爬虫核心概念

Python 爬虫本质是模拟浏览器向目标网站发送请求,获取网页数据后解析提取有用信息的程序,核心价值是批量、自动化获取公开网络数据,适用于数据分析、舆情监控、信息聚合等场景。

核心流程(四步走)

  • 发送请求:模拟浏览器向网站服务器发送 HTTP/HTTPS 请求(如 GET/POST);
  • 获取响应:服务器返回网页源码(HTML/JSON/XML);
  • 解析数据:从源码中提取目标信息(如标题、价格、链接);
  • 保存数据:将提取的信息存为 CSV/Excel/ 数据库等格式。

二、必备工具库(环境准备)

1. 基础环境

需安装 Python 3.8+(推荐 3.10),通过pip安装核心库:

bash

运行

# 基础库(必装) pip install requests beautifulsoup4 lxml # 处理动态页面(可选) pip install selenium # 爬虫框架(进阶) pip install scrapy # 数据保存(可选) pip install pandas openpyxl
2. 核心库功能说明
库名核心作用适用场景
requests发送 HTTP 请求,获取网页响应静态网页爬取(90% 场景)
BeautifulSoup4 (bs4)解析 HTML/XML 源码,提取指定内容静态网页数据解析
lxml高性能 HTML/XML 解析库(支持 XPath)复杂结构网页解析
selenium模拟浏览器渲染动态页面(如 JS 加载的内容)动态网页(如淘宝、抖音)
Scrapy专业爬虫框架,支持并发、反爬、数据持久化大型、批量爬虫项目

三、基础实战:爬取静态网页(新手必学)

以爬取豆瓣 Top250 图书(静态网页)为例,实现完整爬虫流程:

python

运行

import requests from bs4 import BeautifulSoup import pandas as pd # 1. 配置请求头(模拟浏览器,避免被反爬) headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36" } # 2. 定义爬虫函数 def crawl_douban_book(): # 存储数据的列表 book_list = [] # 爬取第一页(豆瓣Top250图书第一页) url = "https://book.douban.com/top250?icn=index-book250-all" try: # 发送GET请求 response = requests.get(url, headers=headers, timeout=10) response.raise_for_status() # 检查请求是否成功(状态码200) response.encoding = response.apparent_encoding # 自动识别编码,避免乱码 # 3. 解析网页源码 soup = BeautifulSoup(response.text, "lxml") # 定位图书列表节点 book_items = soup.find_all("tr", class_="item") # 提取每本图书的信息 for item in book_items: book_info = {} # 提取书名 book_info["title"] = item.find("div", class_="pl2").find("a")["title"] # 提取评分 book_info["score"] = item.find("span", class_="rating_nums").text # 提取简介 book_info["intro"] = item.find("p", class_="pl").text.strip() # 加入列表 book_list.append(book_info) # 4. 保存数据为Excel df = pd.DataFrame(book_list) df.to_excel("豆瓣Top250图书_第一页.xlsx", index=False) print("爬取完成!数据已保存为Excel文件") except Exception as e: print(f"爬取出错:{e}") # 执行爬虫 if __name__ == "__main__": crawl_douban_book()
代码说明:
  • headers:设置 User-Agent 模拟浏览器,避免被网站识别为爬虫;
  • requests.get():发送 GET 请求获取网页源码;
  • BeautifulSoup:通过标签 + 类名定位元素,提取书名、评分等信息;
  • pandas:将数据保存为 Excel,方便后续分析。
运行结果:

生成豆瓣Top250图书_第一页.xlsx文件,包含每本图书的书名、评分、作者 / 出版社等信息。

四、进阶技巧:应对反爬与动态页面

1. 常见反爬策略及应对
反爬手段应对方法
检测 User-Agent配置真实的 User-Agent,甚至随机切换
限制请求频率加入延时(time.sleep(1-3)),避免高频请求
IP 封禁使用代理 IP 池(如快代理、芝麻代理)
验证码对接打码平台(如超级鹰)或手动识别
2. 爬取动态页面(Selenium 示例)

针对 JS 加载的页面(如某电商商品价格),用 Selenium 模拟浏览器:

python

运行

from selenium import webdriver from selenium.webdriver.common.by import By import time # 初始化浏览器(需提前下载ChromeDriver,与浏览器版本匹配) driver = webdriver.Chrome() try: # 打开目标页面 driver.get("https://www.xxx.com/xxx") time.sleep(2) # 等待页面加载 # 提取动态加载的价格 price = driver.find_element(By.CLASS_NAME, "price").text print(f"商品价格:{price}") finally: driver.quit() # 关闭浏览器

五、合规与注意事项(必看)

  1. 遵守 robots 协议:访问目标网站https://xxx.com/robots.txt,查看允许爬取的范围;
  2. 控制请求频率:避免短时间高频请求,给服务器造成压力(建议每次请求间隔 1-3 秒);
  3. 仅爬取公开数据:禁止爬取隐私信息(如手机号、身份证)、付费内容,避免法律风险;
  4. 注明数据用途:爬取的数据仅限个人学习 / 研究,禁止商用或恶意传播。

总结

  1. Python 爬虫核心流程:发请求→取响应→解析数据→存数据,新手先掌握requests+bs4爬取静态页面;
  2. 反爬应对核心:模拟真实浏览器行为(请求头、延时),避免高频请求;
  3. 合规第一:遵守网站规则,仅爬取公开、非隐私数据,避免法律风险。
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 10:38:49

技术架构思考 | 智能体中的“信息节奏”设计:从认知负荷到渐进式揭示

在智能体系统期阶段,最常见的抱怨是“AI不够聪明,回答不够全面”。随着模型能力显著提升、生成成本快速下降之后,问题开始发生反转:AI 给出的信息越来越多,而用户反而越来越难用。 怎么理解这种转变,AI的回答并不是“信息不足”,而是另一种更隐蔽的问题:用户读不完、记…

作者头像 李华
网站建设 2026/4/18 9:09:49

深度测评MBA必备AI论文工具TOP10:开题报告与文献综述全解析

深度测评MBA必备AI论文工具TOP10:开题报告与文献综述全解析 2026年MBA学术写作工具测评:精准选型助力高效研究 在MBA学习与研究过程中,论文撰写是贯穿始终的核心任务,尤其是开题报告与文献综述环节,往往需要耗费大量时…

作者头像 李华
网站建设 2026/4/17 18:06:16

基于PLC的温室远程监控系统,西门子s71200,(设计源文件+万字报告+讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码

基于PLC的温室远程监控系统,西门子s71200,(设计源文件万字报告讲解)(支持资料、图片参考_相关定制)_文章底部可以扫码 基于PLC的温室远程监控系统,西门子s71200, 含程序、报 基于PLC的温室远程监控系统,西门…

作者头像 李华
网站建设 2026/4/17 17:05:18

‌性能优化秘籍:AI驱动测试数据分析‌

性能测试的挑战与AI的崛起 在软件开发生命周期中,性能测试是保障系统可靠性的关键环节,但传统方法常面临数据量大、分析滞后、瓶颈定位不准等痛点。据统计,全球70%的性能问题源于数据分析效率低下(来源:Gartner, 2025…

作者头像 李华