2018-07-16 15:11:05
由于pyinstaller在打包exe文件是依赖包等问题,决定将打包转成一个web应用。当然django框架也是可以的。这里我选用的的是flask轻量级的框架。1,先装个虚拟环境:pip intsall virtualenv2,创建一个虚拟空间:mkdir virtualenv3.创建flask-env文件夹。--盒子4,跳转到flask-env目录下:5,退出虚拟环境:deactivate56在虚拟环境中安装flask,一个虚拟环境安装一个flask:7,查看是否安装成功
2018-07-12 23:04:49
上一篇中我们利用词性进行了关键词提取。但是日期是无法过滤的,因为时间表达上形式不一。错误观念:一旦遇到需要匹配文章或者段落中部分实体的时候,一般第一会想到的就是正则,但是由于表达形式不同文本表达形式的不同,往往正则很无能为力或者准确率不高。只有针对非常整齐单一的文本(时间是写的相同格式18-2-10、18/3/4等)才适合用正则,例如我们在做爬虫时,面对网页中标签的里的内容时。在实际应用中可能需要过滤掉日期、人名、地名等,这一篇中使用的思路就是先识别、再过滤-采用stanfordnlp命名实体识
2018-07-12 14:36:46
1,文本去噪音:去噪音的方法有很多种,去停用词,或者通过词性来去噪音。这里介绍的是利用hanlp词性识别的方法去噪音的方法。2,调用。
2018-07-10 14:22:58
下载 :pip install wxpython(注意我们在写py文件引入时import wx)基本使用:创建一个窗口。import wx app=wx.App() #创建一个主循环,必须的第一个环节frame=wx.Frame(None)#实例化一个窗口frame.Show()#展示app.MainLoop()#开启主循环创建组件并设计比例:效果图:组件绑定事件:open按键的功能——打开1.txt文档内容。sava按键的功能——写入,然后保存。创建成一个.exe的执行程序。——打包
2018-07-08 23:33:13
1,jieba分词及字典加载、未登录词处理,正则结合词典解决单单加载词典也无法解决的问题。措施一:加载词典,然后调整加载的字典的词频。有些词还是会分布准确,可以分词后查看分词结果,将没分准的词拷贝到词典中,扩展词典。措施二:结合措施一,处理有些在字典里有也无法准确分出的词的处理。例如III期,3期,35.3%等,我们需要结合正则表达式来处理。(思想:显示正则匹配没一行句子,匹配到那些特殊的词,例如3期、III期等,用“FLAGS”来代替,然后进行分词,再join这些词以空格或者‘/’来区分每一个
2018-07-07 11:31:22
应用场景及介绍:Hanlp由模型与算法组成的java工具包,目标是普及自然语言处理在生产环境中的应用。 HanLp具备功能完善、性能高效、架构清晰、语料时新、可自定义的特点。功能:中文分词 、词性标注、命名实体识别、依存句法分析(jieba是没有该功能的)、关键词提取、新词发现、短语提取、自动摘要、文本分类
2018-07-04 23:09:03
一,本机的配置:二,文件准备。VS2015,官网社区版(2012,2013,2017也支持),注意CUDA8.0不支持VS2017CUDA9.0,官网下载地址cuDNN V7.05,官网下载,需要填调查表,进去后可看历史版本Anaconda3-5.0.1,清华镜像下载Tensorflow,Github下载 下载页面如上,具体位置参见后文。 注意:安装CUDA9.0前请确认VS2015已安装!三,安装,1. VS2017只需安装C++组件,见下图(引用自参考1),一路默认就行。
2018-07-02 23:14:37
wingide在安装的过程中遇到了点小麻烦,在官网上下载(http://wingware.com/downloads/wingide下载最新的Wing IDE)安装后出现打不开的情况,解决的措施就是将一个platforms复制粘贴到wingide的工作目录下——距离太远找不到。辛苦安装好后,又跳出了要激活,码激活,接着又是网上一顿搜索,好在解决了,亲测有用,本人装的的是wingide6.1,没有激活破解的wingide会每隔几秒就提示你去激活。代码:将下列代码粘贴在自己新创建的一个Python3
2018-06-28 11:10:03
我遇到的情况是直接在cmd中输入pip install tesserocr会出现各种报错。解决措施:在网站:https://github.com/simonflueckiger/tesserocr-windows_build/releases寻找适合自己的版本,下载放在自己的Python安装路径下,在cmd中执行:pip3 install tesserocr-2.2.2-cp35-cp35m-win_amd64.whl。就会安装到anacoda3的各种包中。
2018-06-27 17:02:47
分词,分词的重要性不想多说,分词的方法也多种多样根据你的任务来选择适当的方法吧。逆向最大匹配分词算法在我看来已经很老了,但是在学校学习老师还是会建议我们以任务的形式来再完成一遍,算是个自然语言处理的基础吧,能够帮助我们更好的理解什么是分词。逆向最大匹配分词的原理:逆向向最大匹配分词需要在已有词典的基础上,从被处理文档的末端开始匹配扫描,每次取最末端的i个字符(分词所确定的阈值i)作为匹配字段,若匹配失败,则去掉匹配字段最前面的一个字,继续匹配。而且选择的阈值越大,分词越慢,但准确性越好。优点:逆