依星源码资源网,依星资源网

 找回密码
 立即注册

QQ登录

只需一步,快速开始

【好消息,好消息,好消息】VIP会员可以发表文章赚积分啦 !
查看: 73|回复: 0

Python利用无头浏览器爬虫爬取笔趣阁小说教程

[复制链接] 主动推送

2365

主题

2374

帖子

3671

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
3671
发表于 2024-12-14 11:47:18 | 显示全部楼层 |阅读模式
Python利用无头浏览器爬虫爬取笔趣阁小说教程
前言

用户有需求,需要将笔趣阁的小说便捷的保存为文档到本地,幽络源站长初步了解笔趣阁,发现有反爬措施,小说内容为JS动态生成的,Python的requests库与requests_html已无法满足此需求,因此使用类似selenium但非selenium的无头浏览器爬虫针对笔趣阁实现小说爬取。

教程步骤

1.下载安装chromium

2.明确chromium默认安装路径

3.编写代码

4.明白爬取参数与注意事项

5.开始爬取

6.查看结果

步骤1.下载安装chromium

下载方式一:官网下载 -> Chromiun下载链接

下载方式二:夸克网盘下载保存 -> chromium下载器

下载后,直接双击安装器完成安装即可,如图

Python利用无头浏览器爬虫爬取笔趣阁小说教程

Python利用无头浏览器爬虫爬取笔趣阁小说教程


步骤2.明确chromium默认安装路径

安装后,需要明白默认安装的位置,因为代码中会用到,我的电脑用户名为AW,因此被安装在了如下路径,如图

C:UsersAWAppDataLocalChromiumApplicationchrome.exe

Python利用无头浏览器爬虫爬取笔趣阁小说教程

Python利用无头浏览器爬虫爬取笔趣阁小说教程


步骤3.编写代码

这段代码中用到的库主要为pyppteer、python-docx,这两个库需额外下载

最终代码如下

  1. import asyncio
  2. import os

  3. from docx import Document
  4. from pyppeteer import launch

  5. # 禁用自动下载 Chromium
  6. os.environ["PYPPETEER_SKIP_CHROMIUM_DOWNLOAD"] = "true"

  7. async def main():
  8.     # word名称
  9.     wordName = "宿命之环1~3章.docx"
  10.     # 笔趣阁域名
  11.     netName = "https://www.22biqu.com"
  12.     # 指定起始页的链接
  13.     firstPagePath = "/biqu5251/5259122.html"
  14.     # 指定结束页的链接,不要指定的太远,因为字数太多,打开word很卡的
  15.     endPagePath= "/biqu5251/5259124.html"
  16.     # 要爬取的链接
  17.     catchUrl = netName + firstPagePath
  18.     # 页数,可参考
  19.     pageCount=0
  20.     # 结束标志
  21.     endFlag=False

  22.     while True:
  23.         try:
  24.             #尝试打开一个word
  25.             doc = Document(wordName)
  26.         except:
  27.             doc = Document()

  28.         # 启动浏览器,指定手动下载的 Chromium 路径
  29.         browser = await launch(executablePath=r'C:UsersAWAppDataLocalChromiumApplicationchrome.exe', headless=True)
  30.         # 创建新页面
  31.         page = await browser.newPage()
  32.         # 打开目标页面
  33.         await page.goto(catchUrl)
  34.         # 使用 querySelector 获取 h1 标签且 class 为 title 的元素
  35.         element = await page.querySelector('h1.title')
  36.         if element:
  37.             # 获取该元素的文本内容
  38.             text = await page.evaluate('(element) => element.innerText', element)
  39.             doc.add_heading(text, level=1)
  40.         else:
  41.             print('Element not found.')


  42.         # 使用 querySelector 获取 id="content" 元素
  43.         content_element = await page.querySelector('#content')
  44.         if content_element:
  45.             # 获取 content 下所有 p 标签的内容
  46.             paragraphs = await content_element.querySelectorAll('p')
  47.             for paragraph in paragraphs:
  48.                 # 获取每个 p 标签的文本内容并输出
  49.                 text = await page.evaluate('(p) => p.innerText', paragraph)
  50.                 doc.add_paragraph(text)
  51.         else:
  52.             print('Content element not found.')

  53.         # 使用 querySelector 获取 id="next_url" 的元素
  54.         element = await page.querySelector('#next_url')
  55.         next_url=""
  56.         if element:
  57.             # 获取该元素的 href 属性
  58.             next_url = await page.evaluate('(element) => element.getAttribute("href")', element)
  59.             # 拼接下一页爬取的链接
  60.             catchUrl=netName+next_url
  61.         else:
  62.             print('Element not found.')
  63.         # 关闭浏览器
  64.         await browser.close()

  65.         # 保存word
  66.         doc.save(wordName)

  67.         if endFlag:
  68.             break

  69.         pageCount+=1
  70.         print("已完成页码"+str(pageCount))

  71.         if next_url==endPagePath:
  72.             print("匹配到结束链接:"+str(endPagePath))
  73.             print("即将结束")
  74.             endFlag=True

  75. # 运行异步主函数
  76. asyncio.run(main())
复制代码


步骤4.明白爬取参数与注意事项

在使用上面的代码时,你需要明白函数中的一些参数需要你替换

wordName:也就是爬取后word保存的名称,我建议爬什么就取什么名,且加上多少章到多少章

netName:爬取网址的域名,这里固定不用改

firstPathPath:这是起始页的路径,比如我要从《宿命之环》的第三开始爬起,则这里写为/biqu5251/5259124.html,看如下图你应该就明白了

Python利用无头浏览器爬虫爬取笔趣阁小说教程

Python利用无头浏览器爬虫爬取笔趣阁小说教程


endPagePath:和指定起始页一样,要在哪页结束,就把哪页的路径放进去,但是这里有个注意点

注意点:指定的结束页和起始页不要隔的太远了,因为word中字数太多,打开都卡,我测试了下,我爬取了200章到一个word中,结果是能打开,但是打开时比较卡,因此我建议分为几章节来爬取,不要妄图一次爬取所有章节,理论是可以的,但是你的电脑处理器肯定受不了

步骤5.开始爬取

我这里测试爬取笔趣阁-《宿命之环的1~5章》,因此我设置参数为如下

Python利用无头浏览器爬虫爬取笔趣阁小说教程

Python利用无头浏览器爬虫爬取笔趣阁小说教程


参数设置好后,直接运行代码即可,如图保存为了word

Python利用无头浏览器爬虫爬取笔趣阁小说教程

Python利用无头浏览器爬虫爬取笔趣阁小说教程


步骤6.查看结果

打开我们爬取的1~5章的word,如图,我这里做了将章节名作为标题,打开章节导航还可以点击标题直接定位到对应章节

Python利用无头浏览器爬虫爬取笔趣阁小说教程

Python利用无头浏览器爬虫爬取笔趣阁小说教程


结语

以上是幽络源的利用无头浏览器爬虫爬取笔趣阁小说的教程,对于此篇教程的内容,后续的优化我建议是做成一个PyQT程序,这样会更加方便。




相关帖子

扫码关注微信公众号,及时获取最新资源信息!下载附件优惠VIP会员5折;永久VIP免费
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

免责声明:
1、本站提供的所有资源仅供参考学习使用,版权归原著所有,禁止下载本站资源参与商业和非法行为,请在24小时之内自行删除!
2、本站所有内容均由互联网收集整理、网友上传,并且以计算机技术研究交流为目的,仅供大家参考、学习,请勿任何商业目的与商业用途。
3、若您需要商业运营或用于其他商业活动,请您购买正版授权并合法使用。
4、论坛的所有内容都不保证其准确性,完整性,有效性,由于源码具有复制性,一经售出,概不退换。阅读本站内容因误导等因素而造成的损失本站不承担连带责任。
5、用户使用本网站必须遵守适用的法律法规,对于用户违法使用本站非法运营而引起的一切责任,由用户自行承担
6、本站所有资源来自互联网转载,版权归原著所有,用户访问和使用本站的条件是必须接受本站“免责声明”,如果不遵守,请勿访问或使用本网站
7、本站使用者因为违反本声明的规定而触犯中华人民共和国法律的,一切后果自己负责,本站不承担任何责任。
8、凡以任何方式登陆本网站或直接、间接使用本网站资料者,视为自愿接受本网站声明的约束。
9、本站以《2013 中华人民共和国计算机软件保护条例》第二章 “软件著作权” 第十七条为原则:为了学习和研究软件内含的设计思想和原理,通过安装、显示、传输或者存储软件等方式使用软件的,可以不经软件著作权人许可,不向其支付报酬。若有学员需要商用本站资源,请务必联系版权方购买正版授权!
10、本网站如无意中侵犯了某个企业或个人的知识产权,请来信【站长信箱312337667@qq.com】告之,本站将立即删除。
郑重声明:
本站所有资源仅供用户本地电脑学习源代码的内含设计思想和原理,禁止任何其他用途!
本站所有资源、教程来自互联网转载,仅供学习交流,不得商业运营资源,不确保资源完整性,图片和资源仅供参考,不提供任何技术服务。
本站资源仅供本地编辑研究学习参考,禁止未经资源商正版授权参与任何商业行为,违法行为!如需商业请购买各资源商正版授权
本站仅收集资源,提供用户自学研究使用,本站不存在私自接受协助用户架设游戏或资源,非法运营资源行为。
 
在线客服
点击这里给我发消息 点击这里给我发消息 点击这里给我发消息
售前咨询热线
312337667

微信扫一扫,私享最新原创实用干货

QQ|免责声明|小黑屋|依星资源网 ( 鲁ICP备2021043233号-3 )|网站地图

GMT+8, 2024-12-22 00:49

Powered by Net188.com X3.4

邮箱:312337667@qq.com 客服QQ:312337667(工作时间:9:00~21:00)

快速回复 返回顶部 返回列表