微信公众号文章采集工具,可采集文章文字内容信息及图片
微信公众号文章采集工具,可采集文章文字内容信息及图片
只能单篇采集,想要批量的不用看了!
可作为微信公众号文章图片采集助手使用!
需知:
1.exe程序运行环境为win7 64位操作系统!
2.部分文章图片采集存在BUG,望见谅!
3.工具为python编写,技术渣,只能到这里了!
微信公众号文章采集工具说明:
1.打开weixincj.exe文件
2.输入需要采集的微信公众号文章链接地址
3.回车等待程序运行
4.采集完毕5s后程序自动退出
采集过程中会自动生成目录 weixin
采集完毕,采集内容存放于weixin目录下的微信公众号文章标题目录
内容为图片及txt文档
下载地址
百度云:
链接: https://pan.baidu.com/s/1pCqptL6QwnP2eUeyAABnYA 提取码: sxca
需知:
exe程序运行环境为win7 64位操作系统!
提示:
不一定保证格式内容及图片完整性!
附上主要python源码:
#微信文章页采集 # -*- coding: UTF-8 -*- import requests import re,time,os from bs4 import BeautifulSoup from baocun import bctp,bcwb from fake_useragent import UserAgent def ua(): ua = UserAgent() headers = {"User-Agent": ua.random} return headers def get_content(url): headers=ua() respnese=requests.get(url,headers=headers).text soup=BeautifulSoup(respnese,'lxml') #获取标题 h2=soup.find('h2',class_="rich_media_title").get_text() h2=h2.replace('\n','') h2 = h2.replace(' ', '') h2 = re.sub(r'[\|\/\<\>\:\*\?\\\"]', "_", h2) # 剔除不合法字符 print(f'微信公众号文章标题:{h2}') os.makedirs(f'weixin/{h2}/',exist_ok=True) lj =f'weixin/{h2}/' ljj=f'weixin/{h2}/{h2}.txt' author=soup.find('div',class_="rich_media_meta_list").find('a',id="js_name").get_text() author = author.replace('\n', '') author = author.replace(' ', '') author=f'来源:{author}' print(author) i=1 text='' ps=soup.find('div',class_="rich_media_content").find_all('p') for p in ps: if "img" in str(p): try: img_url=p.find('img')['data-src'] print(img_url) if "jpeg" == img_url[-4:]: img_name=f'{i}.{img_url[-4:]}' else: img_name = f'{i}.{img_url[-3:]}' bctp(lj, img_url, img_name) p_content=img_name i=i+1 except Exception as e: print(f"获取图片数据失败,错误代码:{e}") pass else: p_content=p.get_text() text = '%s%s%s' % (text, '\n',p_content) texts='%s%s%s%s%s'%(h2,'\n',author,'\n',text) print(texts) bcwb(ljj, texts) if __name__ == '__main__': url=input("请输入要采集的微信公众号文章链接:") print(f'爬虫启动中,请稍后......') get_content(url) print(f'采集完毕,程序5s后自动关闭!') time.sleep(5)
附改进 完整内容抓取,无格式
#微信公众号文章 完整版内容抓取 def cs(url): headers = ua() respnese = requests.get(url, headers=headers).text soup = BeautifulSoup(respnese, 'lxml') get_article(soup) def get_article(soup): # 获取标题 h2 = soup.find('h2', class_="rich_media_title").get_text() h2 = h2.replace('\n', '') h2 = h2.replace(' ', '') h2 = re.sub(r'[\|\/\<\>\:\*\?\\\"]', "_", h2) # 剔除不合法字符 print(f'微信公众号文章标题:{h2}') os.makedirs(f'weixin/{h2}/', exist_ok=True) lj = f'weixin/{h2}/' ljj = f'weixin/{h2}/{h2}.txt' author = soup.find('div', class_="rich_media_meta_list").find('a', id="js_name").get_text() author = author.replace('\n', '') author = author.replace(' ', '') author = f'来源:{author}' print(author) # 获取文字内容 texts = soup.find('div', class_="rich_media_content").get_text() texts = '\n'.join(texts.split('。')) # 以句号 分割文本 print(texts) texts = '%s%s%s%s%s' % (h2, '\n', author, '\n', texts) print(texts) bcwb(ljj, texts) # 获取所有图片 i = 1 imgs = soup.find('div', class_="rich_media_content").find_all('img') for img in imgs: img_url = img['data-src'] print(img_url) if "jpeg" == img_url[-4:]: img_name = f'{i}.{img_url[-4:]}' else: img_name = f'{i}.{img_url[-3:]}' bctp(lj, img_url, img_name) i = i + 1
源码应用到的保存模块
#存储内容 import requests import time from fake_useragent import UserAgent def ua(): ua = UserAgent() headers = {"User-Agent": ua.random} return headers #下载图片 def bctp(lj,img_url,img_name): print("开始下载图片!") try: r = requests.get(img_url,headers=ua(),timeout=5) with open(f'{lj}/{img_name}', 'wb') as f: f.write(r.content) print(f'下载{img_name}图片成功!') time.sleep(1) except Exception as e: if "port=443): Read timed out" in str(e): time.sleep(2) try: r = requests.get(img_url, headers=ua(),timeout=5) with open(f'{lj}/{img_name}', 'wb') as f: f.write(r.content) print(f'下载{img_name}图片成功!') except Exception as e: print(f'下载{img_name}图片失败!') print(f'错误代码:{e}') with open(f'{lj}/spider.txt', 'a+', encoding='utf-8') as f: f.write(f'错误代码:{e}---下载 {img_url} 图片失败\n') else: print(f'下载{img_name}图片失败!') print(f'错误代码:{e}') with open(f'{lj}/spider.txt', 'a+', encoding='utf-8') as f: f.write(f'错误代码:{e}---下载 {img_url} 图片失败\n') #保存文本内容 def bcwb(ljj,texts): print("开始保存文本") with open(ljj, 'w', encoding='utf-8') as f: f.write(texts) print(f'保存文本内容成功!')

低调大师中文资讯倾力打造互联网数据资讯、行业资源、电子商务、移动互联网、网络营销平台。
持续更新报道IT业界、互联网、市场资讯、驱动更新,是最及时权威的产业资讯及硬件资讯报道平台。
转载内容版权归作者及来源网站所有,本站原创内容转载请注明来源。
- 上一篇
Java四种引用类型原理你真的搞明白了吗?五分钟带你深入理解!
Java中一共有4种引用类型(其实还有一些其他的引用类型比如FinalReference):强引用、软引用、弱引用、虚引用。 其中强引用就是我们经常使用的Object a = new Object(); 这样的形式,在Java中并没有对应的Reference类。 本篇文章主要是分析软引用、弱引用、虚引用的实现,这三种引用类型都是继承于Reference这个类,主要逻辑也在Reference中。 问题 在分析前,先抛几个问题? 1.网上大多数文章对于软引用的介绍是:在内存不足的时候才会被回收,那内存不足是怎么定义的?什么才叫内存不足? 2.网上大多数文章对于虚引用的介绍是:形同虚设,虚引用并不会决定对象的生命周期。主要用来跟踪对象被垃圾回收器回收的活动。真的是这样吗? 3.虚引用在Jdk中有哪些场景下用到了呢? Reference 我们先看下Reference.java中的几个字段 public abstract class Reference<T> { //引用的对象 private T referent; //回收队列,由使用者在Reference的构造函数中指定 vol...
- 下一篇
ES6新增内容总结
ES6新增内容有:1,模块化思想。2,关于变量let和const。3,解构赋值。4,字符串的扩展。5,函数的扩展。6,箭头函数。7,继承apply的用法 以下就是详解: 1:模块化思想 非模块化有命名的冲突,文件依赖的缺点,而模块化思想解决了这样的问题,一个文件即一个模块模块的导出,通过exports 和module.exports。 export: 在一个模块文件里可以有多个export用于暴露模块的接口,但只能有一个export default用于暴露模块的默认接口,例如: export const myStr = 'hello world' export const myNum = 1000 export const myBoole = false export default { id: 1, title: 'this is title', } import: 引入模块的时候通过export暴露的接口需要用{}包起来,通过export暴露的接口则不用,例如: //引入默认输出对象importdefaultObjfrom'./test.js'//引入多个输出变量import{...
相关文章
文章评论
共有0条评论来说两句吧...
文章二维码
点击排行
推荐阅读
最新文章
- Docker快速安装Oracle11G,搭建oracle11g学习环境
- Red5直播服务器,属于Java语言的直播服务器
- CentOS7,8上快速安装Gitea,搭建Git服务器
- SpringBoot2整合Thymeleaf,官方推荐html解决方案
- 2048小游戏-低调大师作品
- SpringBoot2整合MyBatis,连接MySql数据库做增删改查操作
- CentOS7,CentOS8安装Elasticsearch6.8.6
- CentOS关闭SELinux安全模块
- Docker使用Oracle官方镜像安装(12C,18C,19C)
- Springboot2将连接池hikari替换为druid,体验最强大的数据库连接池