Python写的一个GUI界面的小说爬虫软件

一个小说的爬虫,带GUI界面的

主要功能

1.多线程提取 可使用代{过}{}过滤理

2. 实时输出过程

3. 一本书的txt文件

使用方法

私信小编01即可获取大量python学习资源

1. 首先配置好python3环境,

2.新建一个空目录,在此目录下要新建start.py文件,将源码复制在start.py文件内

3. 在此目录下打开 cmd.exe,执行命令 python -m venv 。

4.分别

pip install requests

pip install

pip install

pip install pyinstaller

5.在

pyinstaller - F -w - *.py

结束后在 dist 看到下 exe已执行打包好

exe 执行文件下载

链接:

https://pan .baidu.com/s/10FcAcJ.mv8Blx3evX4TQ?pwdh 提取码j63v6h=3vdh

import time

import requests

import os

import re

import random

from lxml import etree

import webbrowser

import PySimpleGUI as sg

import threading

# user-agent

header = {

"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.99 Safari/537.36"

}

# 代{过}{滤}理

proxies = {}

# 删除书名中特殊符号

# 笔趣阁基地址

baseurl = 'https://www.xbiquwx.la/'

# 线程数量

threadNum = 6

pool_sema = None

THREAD_EVENT = '-THREAD-'

cjstatus = False

# txt存储目录

filePath = os.path.abspath(os.path.join(os.getcwd(), 'txt'))

if not os.path.exists(filePath):

os.mkdir(filePath)

# 删除特殊字符

def deletetag(text):

return re.sub(r'[[]#/\:*,;?"'<>|()《》&^!~=%{}@!:。·!¥……() ]','',text)

# 入口

def main():

global cjstatus, proxies, threadNum, pool_sema

sg.theme("reddit")

layout = [

[sg.Text('输入要爬取的小说网址,点此打开笔趣阁站点复制', font=("微软雅黑", 12),

key="openwebsite", enable_events=True, tooltip="点击在浏览器中打开")],

[sg.Text("小说目录页url,一行一个:")],

[

sg.Multiline('', key="url", size=(120, 6), autoscroll=True, expand_x=True, right_click_menu=['&Right', ['粘贴']]

)

],

[sg.Text(visible=False, text_color="#ff0000", key="error")],

[

sg.Button(button_text='开始采集', key="start", size=(20, 1)),

sg.Button(button_text='打开下载目录', key="opendir",

size=(20, 1), button_color="#999999")

],

[sg.Text('填写ip代{过}{滤}理,有密码格式 用户名:密码@ip:端口,无密码格式 ip:端口。如 demo:123456@123.1.2.8:8580')],

[

sg.Input('', key="proxy"),

sg.Text('线程数量:'),

sg.Input('5', key="threadnum"),

],

[

sg.Multiline('等待采集', key="res", disabled=True, border_width=0, background_color="#ffffff", size=(

120, 6), no_scrollbar=False, autoscroll=True, expand_x=True, expand_y=True, font=("宋体", 10), text_color="#999999")

],

]

window = sg.Window('采集笔趣阁小说', layout, size=(800, 500), resizable=True,)

while True:

event, values = window.read()

if event == sg.WIN_CLOSED or event == 'close': # if user closes window or clicks cancel

break

if event == "openwebsite":

webbrowser.open('%s' % baseurl)

elif event == 'opendir':

os.system('start explorer ' + filePath)

elif event == 'start':

if cjstatus:

cjstatus = False

window['start'].update('已停止...点击重新开始')

continue

window['error'].update("", visible=False)

urls = values['url'].strip().split("n")

lenth = len(urls)

for k, url in enumerate(urls):

if (not re.match(r'%sd+_d+/' % baseurl, url.strip())):

if len(url.strip()) > 0:

window['error'].update("地址错误:%s" % url, visible=True)

del urls[k]

if len(urls) < 1:

window['error'].update(

"每行地址需符合 %s84_84370/ 形式" % baseurlr, visible=True)

continue

# 代{过}{滤}理

if len(values['proxy']) > 8:

proxies = {

"http": "http://%s" % values['proxy'],

"https": "http://%s" % values['proxy']

}

# 线程数量

if values['threadnum'] and int(values['threadnum']) > 0:

threadNum = int(values['threadnum'])

pool_sema = threading.BoundedSemaphore(threadNum)

cjstatus = True

window['start'].update('采集中...点击停止')

window['res'].update('开始采集')

for url in urls:

threading.Thread(target=downloadbybook, args=(

url.strip(), window,), daemon=True).start()

elif event == "粘贴":

window['url'].update(sg.clipboard_get())

print("event", event)

if event == THREAD_EVENT:

strtext = values[THREAD_EVENT][1]

window['res'].update(window['res'].get()+"n"+strtext)

cjstatus = False

window.close()

#下载

def downloadbybook(page_url, window):

try:

bookpage = requests.get(url=page_url, headers=header, proxies=proxies)

except Exception as e:

window.write_event_value(

'-THREAD-', (threading.current_thread().name, 'n请求 %s 错误,原因:%s' % (page_url, e)))

return

if not cjstatus:

return

# 锁线程

pool_sema.acquire()

if bookpage.status_code != 200:

window.write_event_value(

'-THREAD-', (threading.current_thread().name, 'n请求%s错误,原因:%s' % (page_url, page.reason)))

return

bookpage.encoding = 'utf-8'

page_tree = etree.HTML(bookpage.text)

bookname = page_tree.xpath('//div[@id="info"]/h1/text()')[0]

bookfilename = filePath + '/' + deletetag(bookname)+'.txt'

zj_list = page_tree.xpath(

'//div[@class="box_con"]/div[@id="list"]/dl/dd')

for _ in zj_list:

if not cjstatus:

break

zjurl = page_url + _.xpath('./a/@href')[0]

zjname = _.xpath('./a/@title')[0]

try:

zjpage = requests.get(

zjurl, headers=header, proxies=proxies)

except Exception as e:

window.write_event_value('-THREAD-', (threading.current_thread(

).name, 'n请求%s:%s错误,原因:%s' % (zjname, zjurl, zjpage.reason)))

continue

if zjpage.status_code != 200:

window.write_event_value('-THREAD-', (threading.current_thread(

).name, 'n请求%s:%s错误,原因:%s' % (zjname, zjurl, zjpage.reason)))

return

zjpage.encoding = 'utf-8'

zjpage_content = etree.HTML(zjpage.text).xpath('//div[@id="content"]/text()')

content = "n【"+zjname+"】n"

for _ in zjpage_content:

content += _.strip() + 'n'

with open(bookfilename, 'a+', encoding='utf-8') as fs:

fs.write(content)

window.write_event_value(

'-THREAD-', (threading.current_thread().name, 'n%s:%s 采集成功' % (bookname, zjname)))

time.sleep(random.uniform(0.05, 0.2))

# 下载完毕

window.write_event_value('-THREAD-', (threading.current_thread(

).name, 'n请求 %s 结束' % page_url))

pool_sema.release()

if __name__ == '__main__':

main()

原文地址:https://www.toutiao.com/article/7062596348394127886/

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


本文适合有 Python 基础的小伙伴进阶学习 作者:pwwang 一、前言 本文基于开源项目: https://github.com/pwwang/python-import-system 补充扩展讲解,希望能够让读者一文搞懂 Python 的 import 机制。 1.1 什么是 import
前言 目前有个python应用需要在容器镜像内拉取git私有仓库的代码,一开始的想法是用GitPython,折腾一番ssh私钥和known_hosts问题后,发现还是在镜像中封装个git最省事,然后用subprocess调用系统命令,镜像体积也没有想象中增加特别多。 准备ssh私钥和known_ho
前言 当网络不稳定或应用页面加载有问题,可以设置等待,避免网络问题导致找不到元素等异常。 隐式等待 隐式等待设置的是最长等待时间,如果在规定时间内网页加载完成,则执行下一步,否则一直等到时间结束。 隐式等待在driver的整个生命周期都有效,初始化的时候设置一次即可。 # 隐式等待10秒 drive
前言 map()、reduce()、filter()是python的三个高阶函数。所谓高阶函数,指的是将函数作为参数并返回函数作为结果的函数。下面代码的sing_ready只是一个简单高阶函数示例: def ready(name): return f&quot;ready,{name}!&quot;
入门使用 # 示例代码 warframe = [&quot;saryn&quot;, &quot;wisp&quot;, &quot;volt&quot;] counts = [len(n) for n in warframe] for i,j in zip(warframe,counts): pr
前言 功能描述:批量重命名指定目录下的文件,文件名加前缀,默认格式为“目录名_原文件名”。 示例代码 import argparse import os import sys import logging def gen_args(): &quot;&quot;&quot; 说明 解析命令行参数 &
前言 常见的应用配置方式有环境变量和配置文件,对于微服务应用,还会从配置中心加载配置,比如nacos、etcd等,有的应用还会把部分配置写在数据库中。此处主要记录从环境变量、.env文件、.ini文件、.yaml文件、.toml文件、.json文件读取配置。 ini文件 ini文件格式一般如下: [
前言 在设计API返回内容时,通常需要与前端约定好API返回响应体内容的格式。这样方便前端进行数据反序列化时相应的解析处理,也方便其它服务调用。不同公司有不同的响应内容规范要求,这里以常见的JSON响应体为例: { &quot;code&quot;: 200, &quot;data&quot;: {
前言 我们一般使用如下方式点击元素: elem = driver.find_element(...) elem.click() # 或者使用带等待条件的方式 elem = WebDriverWait(driver, 10).until(EC.xxx(...)) elem.click() 正常情况下,
前言 从环境变量和配置文件中获取配置参数,相关库: python-dotenv:第三方库,需要使用pip安装 configparser:标准库 示例代码 test.ini [mysql] host = &quot;192.168.0.10&quot; port = 3306 user = &quot
前言 Relative Locators,相对定位器,是Selenium 4引入的一个新的定位器,相对定位器根据源点元素去定位相对位置的其它元素。 相对定位方法其实是基于JavaScript的 getBoundingClientRect() 而实现,简单的页面还行,复杂页面中可能会定位到需要相同类型
简介 The pytest framework makes it easy to write small, readable tests, and can scale to support complex functional testing for applications and librari
简介 Faker库可用于随机生成测试用的虚假数据。 可生成的数据参考底部的参考链接。 安装: python -m pip install faker 快速入门 from faker import Faker # 实例化一个对象,本地化使用中国 fk - Faker(locale=&quot;zh_C
前言 原本应用的日志是全部输出到os的stdout,也就是控制台输出。因其它团队要求也要保留日志文件,便于他们用其他工具统一采集,另一方面还要保留控制台输出,便于出问题的时候自己直接看pod日志。具体需求如下: 日志支持同时控制台输出和文件输出 控制台的输出级别可以高点,比如WARNING,个人这边
按列从多个文件中构建 假设有两个csv文件,列不相同,需要整合为一个dataframe,使用glob模块: from glob import glob import pandas as pd # glob会返回任意排序的文件名,所以需要sort排序 some_files = sorted(glob(
简介 diagrams是python的一个第三方库,用于实现使用代码绘制架构图。 安装 依赖于 Graphviz,安装diagrams之前需要先安装 Graphviz(下载压缩包后,将bin目录添加到系统环境变量Path里即可)。 python3 -m pip install diagrams 快速
前言 最近有个个人需求是要把多个图片文件合并为一个PDF文件,这样方便用PDF阅读器连续看,避免界面点一下,只会图片放大。(比如看漫画) 主要思路是先把单张图片转换成单个PDF文件,然后把PDF文件进行合并。原先是用WPS的转换工具做的,但WPS每次只能批量转换30张,如果有大量图片文件,用WPS就
前言 版本: python:3.9 selenium:4.1.5 获取元素文本 text = driver.find_element(by=By.XPATH, value=&quot;&quot;).text 获取元素属性值 attr1 = driver.find_element(by=By.XPA
Python中有个内置的函数叫做 enumerate,可以在迭代时返回元素的索引。 # 示例代码01 warframe = [&quot;saryn&quot;, &quot;wisp&quot;, &quot;volt&quot;] for i,name in enumerate(warframe
前言 版本: python:3.9 selenium:4.1.5 浏览器:firefox 创建浏览器对象 from selenium import webdriver driver = webdriver.Firefox(executable_path=r&quot;C:\software\sele