Haystack是django的开源全文搜索框架(全文检索不同于特定字段的模糊查询,使用全文检索的效率更高 ),该框架支持Solr,Elasticsearch,Whoosh, **Xapian搜索引擎它是一个可插拔的后端(很像Django的数据库层),所以几乎你所有写的代码都可以在不同搜索引擎之间便捷切换。全文检索不同于特定字段的模糊查询,使用全文检索的效率更高,并且能够对于中文进行分词处理。
haystack:django 的一个包,可以方便地对 model 里面的内容进行索引、搜索,设计为支持 whoosh,solr,Xapian,Elasticsearc 四种全文检索引擎后端,属于一种全文检索的框架
whoosh:纯Python编写的全文搜索引擎,虽然性能比不上sphinx、xapian、Elasticsearc等,但是无二进制包,程序不会莫名其妙的崩溃,对于小型的站点,whoosh已经足够使用
jieba 分词 :一款免费的中文分词包,-加强 haystack 的中文分词力度。
安装python包:
# 使用清华的镜像安装速度更快pip install django-haystack=2.7.0 -i https://pypi.tuna./simplepip install whoosh -i https://pypi.tuna./simple
将Haystack 添加到 settings.py 中
INSTALLED_APPS = [# 添加'haystack',]
接着增加全文检索框架
# 全文检索框架HAYSTACK_CONNECTIONS = {'default': {'ENGINE': 'haystack.backends.whoosh_backend.WhooshEngine','PATH': os.path.join(BASE_DIR, 'whoosh_index'),},}# 自动更新索引HAYSTACK_SIGNAL_PROCESSOR = 'haystack.signals.RealtimeSignalProcessor'
建立索引
如果想针对某个app例如我的article做全文检索,则必须在article的目录下面建立search_indexes.py
文件,文件名不能修改
from haystack import indexesfrom .models import Articleclass ArticleIndex(indexes.SearchIndex, indexes.Indexable):# 类名必须为需要检索的Model_name+Index,这里需要检索Article,所以创建ArticleIndex# use_template根据哪些字段建立索引,将说明放入一个文件中# document=True 说明text是索引字段text = indexes.CharField(document=True, use_template=True) # 创建一个text字段def get_model(self): # 重载get_model方法,必须要有!return Article# 建立索引的数据def index_queryset(self, using=None):return self.get_model().objects.all()
索引就像是一本书的目录,可以为读者提供更快速的导航与查找。在这里也是同样的道理,当数据量非常大的时候,若要从这些数据里找出所有的满足搜索条件的几乎是不太可能的,将会给服务器带来极大的负担。所以我们需要为指定的数据添加一个索引(目录)。 在目录“templates/search/indexes/应用名称/”下创建“模型类名称_text.txt”文件 例如:templates/search/indexes/article/article_text.txt,添加 title,desc,content 字段添加索引
# 随机挑选几个{{ object.title }}{{ object.desc }}{{ object.content }}
运行python manage.py rebuild_index建立索引
会看到生成三个文件
接着建立搜索表单 在templates的search目录下建立search.html文件
<!DOCTYPE html><html lang="en"><head><meta charset="UTF-8"><title>Title</title></head><body>{{ query }}{% for item in page %}{{ item.object.id }} - {{ item.object.title }} - {{ item.object.author }} - {{ item.object.desc }}<br>{% endfor %}</body></html>
启动服务器后在浏览器中输入 http://127.0.0.1:8000/search/?q=XXX XXX是要搜索的关键字
这个可不能乱输入,要看数据库里面有没有
为了提高搜索期望,我们使用结巴分词会好一点。
结巴库也常用python词云应用,这里不过多阐述。
# 安装结巴库pip install jieba
修改默认分词方式:在你自己的haystack 的安装文件夹下建立ChineseAnalyzer.py文件
(可以从pycharm的环境中看到,下面的路径是我自己的)
反正要从 \Lib\site-packages\haystack进去
D:\Program Files (x86)\python\mycoding\python-django\djangoblog\venv\Lib\site-packages\haystack
# ChineseAnalyzer.pyimport jiebafrom whoosh.analysis import Tokenizer, Tokenclass ChineseTokenizer(Tokenizer):def __call__(self, value, positions=False, chars=False,keeporiginal=False, removestops=True,start_pos=0, start_char=0, mode='', **kwargs):t = Token(positions, chars, removestops=removestops, mode=mode,**kwargs)seglist = jieba.cut(value, cut_all=True)for w in seglist:t.original = t.text = wt.boost = 1.0if positions:t.pos = start_pos + value.find(w)if chars:t.startchar = start_char + value.find(w)t.endchar = start_char + value.find(w) + len(w)yield tdef ChineseAnalyzer():return ChineseTokenizer()
#复制whoosh_backend.py文件,改名为whoosh_cn_backend.py
#注意:复制出来的文件名,末尾会有一个空格,记得要删除这个空格
打开whoosh_cn_backend.py大约是47行添加
from .ChineseAnalyzer import ChineseAnalyzer
查找analyzer=StemmingAnalyzer() 大概在164行
改为analyzer=ChineseAnalyzer()
返回项目的settings.py文件下 修改ENGINE
HAYSTACK_CONNECTIONS = {'default': {'ENGINE': 'haystack.backends.whoosh_cn_backend.WhooshEngine','PATH': os.path.join(BASE_DIR, 'whoosh_index'),},}
重新执行:python manage.py rebuild_index重新生成索引 跳出来询问直接:Y
看到 jieba.cache 就是成功了
现在去测试一下
关键词:月饼 id:6 测试期望符合