带有html标签的文本转成docx文档

项目需求将已采集的网页富文本转成docx文档,提供客户使用; 首先确认下python怎么生成docx文档 安装python 处理docx的库 pip install python-docx  使用python 生成docx文档 f

Django日志输出到log文件的重要性

Django开发web系统,以前自己做些小工具的时候对日志不够重视,但是当我们将做的系统工具给别人用的时候,一切都正常还好,一但存在数上传或者客户说上传了数据但是后台却没有对该数据的处理的数据,这时候我们想排查错误的时候就会变得非常的困难,甚至没有任何的办法拿出证明程序没有问题的情况,这个时候就需要日志作为我们排查问题

CrawlSpace爬虫部署框架介绍

全新的爬虫部署框架,为了适应工作的爬虫部署的使用,需要自己开发一个在线编写爬虫及部署爬虫的框架,框架采用的是Django2.2+bootstap依赖scrapyd开发的全新通用爬虫在线编辑部署及scrapy项目的部署框架。项目实现的五大块的功能及许多在维护爬虫的过程中用的许多实用的操作功能。 首页通用爬虫的模块编

docker 安装filebeat收集日志到es

使用docker安装部署filebeat采集日志并发送给elasticsearch,为什么使用docker安装呢,原因在于win10上面安装 的没有成功,下载了安装包到win10解压后,配置都完成了但是运行winservice的时候却没有成功,导致只能cmd下,以命令行的方式运行,但是终究不是好的办法,于是就想到了使用

django下载支持XML格式开发

业务有所需求,能够跟着需求学习提升技能,本篇博文记录分享使用django生成xml格式,并支持后台下载的指定字段的功能开发,首先就是要理解xml的格式怎么用python3实现,如何实现成需要的模板xml格式,查阅资料,尝试了几个,最终取多家之长,完成xml格式的模板生成,生成的模板如下图所示: 第一步:下

ubuntu20安装mysql_workbench

ubuntu20安装mysql 的可视化工具,起初是下载官网的deb包安装,但是提示缺少依赖,网上找了参考没能解决,因此使用snap进行安装,命令 sudo snap install mysql-workbench-community.就直接成功了,在系统软件中打开,看到下面的图片就表示可以打开成功了.

es-head读取日志报错406

是因为在ES6.0之后,ES对content-type的检测更为严格,在ES的早期版本中,content-type是可选的,如果缺省或者ES无法辨别,ES会根据请求内容进行猜测。这个功能最先出现在5.3版本,http.content_type.required 是在配置中的,在5.x版本中,默认参数是false,但是在

docker部署ELK日志监控

ELK 是三个开源项目的首字母缩写,这三个项目分别是:Elasticsearch、Logstash 和 Kibana。 Elasticsearch 是一个搜索和分析引擎。 Logstash 是服务器端数据处理管道,能够同时从多个来源采集数据,转换数据,然后将数据发送到诸如 Elasticsearch 等存储库中

scrapy不能同时支持https和http代理

背景:使用scrapy采集数据,遇到反爬虫,但是反爬虫的页面是http协议,而我使用的是https的代理,因此无法请求反爬虫的页面,进而区捕获该异常,从而触发中间件更换代理请求并重新发起请求! 报错如下:[<twisted.python.failure.Failure OpenSSL.SSL.Error:

json解析报错

raise JSONDecodeError("Unexpected UTF-8 BOM (decode using utf-8-sig)",json.decoder.JSONDecodeError: Unexpected UTF-8 BOM (decode using utf-8-sig): lin