发表于2024-12-19
1、《解密搜索引擎技术实战:Lucene&Java;精华版(第3版)》是畅销书的升级版,从实用的角度出发,全面介绍了搜索引擎相关技术。
2、作者罗刚对搜索引擎技术非常熟悉,本书是其软件研发和教学实践的经验汇总。
3、《解密搜索引擎技术实战:Lucene&Java;精华版(第3版)》非常适合想全面了解搜索引擎技术及实现方法的读者阅读,亦可作为相关专业学生的参考用书。
本书是猎兔搜索开发团队的软件研发和教学实践的经验汇总。本书总结搜索引擎相关理论与实际解决方案,并给出了Java实现,其中利用了流行的开源项目Lucene和Solr,而且还包括原创的实现。
本书主要包括总体介绍部分、爬虫部分、自然语言处理部分、全文检索部分以及相关案例分析。爬虫部分介绍了网页遍历方法和如何实现增量抓取,并介绍了从网页等各种格式的文档中提取主要内容的方法。自然语言处理部分从统计机器学习的原理出发,包括了中文分词与词性标注的理论与实现及在搜索引擎中的应用等细节,同时对文档排重、文本分类、自动聚类、句法分析树、拼写检查等自然语言处理领域的经典问题进行了深入浅出的介绍,并总结了实现方法。在全文检索部分,结合Lucene介绍了搜索引擎的原理与进展。用简单的例子介绍了Lucene的*新应用方法,包括完整的搜索实现过程:从完成索引到搜索用户界面的实现。此外还进一步介绍了实现准实时搜索的方法,展示了Solr的用法以及实现分布式搜索服务集群的方法。*后介绍了在地理信息系统领域和户外活动搜索领域的应用。
罗刚,猎兔搜索创始人,带领猎兔搜索技术开发团队先后开发出猎兔中文分词系统、猎兔信息提取系统、猎兔智能垂直搜索系统以及网络信息监测系统等,实现互联网信息的采集、过滤、搜索和实时监测。曾编写出版《自己动手写搜索引擎》、《自己动手写网络爬虫》、《使用C#开发搜索引擎》,获得广泛好评。在北京和上海等地均有猎兔培训的学员。
第1章 搜索引擎总体结构 1
1.1 搜索引擎基本模块 1
1.2 开发环境 2
1.3 搜索引擎工作原理 3
1.3.1 网络爬虫 4
1.3.2 全文索引结构与Lucene实现 4
1.3.3 搜索用户界面 7
1.3.4 计算框架 8
1.3.5 文本挖掘 9
1.4 本章小结 9
第2章 网络爬虫的原理与应用 11
2.1 爬虫的基本原理 11
2.2 爬虫架构 14
2.2.1 基本架构 14
2.2.2 分布式爬虫架构 16
2.2.3 垂直爬虫架构 17
2.3 抓取网页 18
2.3.1 下载网页的基本方法 19
2.3.2 网页更新 23
2.3.3 抓取限制应对方法 25
2.3.4 URL地址提取 28
2.3.5 抓取JavaScript动态页面 28
2.3.6 抓取即时信息 31
2.3.7 抓取暗网 32
2.3.8 信息过滤 33
2.3.9 最好优先遍历 39
2.4 存储URL地址 40
2.4.1 BerkeleyDB 40
2.4.2 布隆过滤器 42
2.5 并行抓取 45
2.5.1 多线程爬虫 46
2.5.2 垂直搜索的多线程爬虫 48
2.5.3 异步I/O 49
2.6 RSS抓取 53
2.7 抓取FTP 55
2.8 下载图片 55
2.9 图像的OCR识别 56
2.9.1 图像二值化 57
2.9.2 切分图像 60
2.9.3 SVM分类 63
2.10 Web结构挖掘 67
2.10.1 存储Web图 67
2.10.2 PageRank算法 71
2.10.3 HITs算法 77
2.10.4 主题相关的PageRank 81
2.11 部署爬虫 83
2.12 本章小结 83
第3章 索引内容提取 86
3.1 从HTML文件中提取文本 86
3.1.1 识别网页的编码 86
3.1.2 网页编码转换为字符串编码 89
3.1.3 使用正则表达式提取数据 89
3.1.4 结构化信息提取 91
3.1.5 网页的DOM结构 94
3.1.6 使用NekoHTML提取信息 95
3.1.7 使用Jsoup提取信息 101
3.1.8 网页去噪 105
3.1.9 网页结构相似度计算 110
3.1.10 提取标题 112
3.1.11 提取日期 113
3.2 从非HTML文件中提取文本 113
3.2.1 提取标题的一般方法 114
3.2.2 PDF文件 118
3.2.3 Word文件 122
3.2.4 Rtf文件 123
3.2.5 Excel文件 134
3.2.6 PowerPoint文件 137
3.3 流媒体内容提取 137
3.3.1 音频流内容提取 138
3.3.2 视频流内容提取 140
3.4 存储提取内容 142
3.5 本章小结 143
第4章 中文分词的原理与实现 144
4.1 Lucene中的中文分词 145
4.1.1 Lucene切分原理 145
4.1.2 Lucene中的Analyzer 146
4.1.3 自己写Analyzer 148
4.1.4 Lietu中文分词 150
4.2 查找词典算法 151
4.2.1 标准Trie树 151
4.2.2 三叉Trie树 154
4.3 中文分词的原理 159
4.4 中文分词流程与结构 162
4.5 形成切分词图 164
4.6 概率语言模型的分词方法 169
4.7 N元分词方法 173
4.8 新词发现 178
4.9 未登录词识别 179
4.10 词性标注 180
4.10.1 隐马尔可夫模型 183
4.10.2 基于转换的错误
学习方法 191
4.11 平滑算法 193
4.12 本章小结 198
第5章 让搜索引擎理解自然语言 199
5.1 停用词表 200
5.2 句法分析树 201
5.3 相似度计算 205
5.4 文档排重 209
5.4.1 语义指纹 210
5.4.2 SimHash 213
5.4.3 分布式文档排重 223
5.5 中文关键词提取 223
5.5.1 关键词提取的基本方法 223
5.5.2 HITS算法应用于
关键词提取 226
5.5.3 从网页中提取关键词 228
5.6 相关搜索词 228
5.6.1 挖掘相关搜索词 229
5.6.2 使用多线程计算
相关搜索词 231
5.7 信息提取 232
5.8 拼写检查与建议 237
5.8.1 模糊匹配问题 240
5.8.2 英文拼写检查 242
5.8.3 中文拼写检查 244
5.9 自动摘要 247
5.9.1 自动摘要技术 247
5.9.2 自动摘要的设计 247
5.9.3 Lucene中的动态摘要 254
5.10 文本分类 257
5.10.1 特征提取 259
5.10.2 中心向量法 262
5.10.3 朴素贝叶斯 265
5.10.4 支持向量机 272
5.10.5 规则方法 279
5.10.6 网页分类 282
5.11 拼音转换 283
5.12 概念搜索 284
5.13 多语言搜索 292
5.14 跨语言搜索 293
5.15 情感识别 295
5.15.1 确定词语的褒贬倾向 298
5.15.2 实现情感识别 300
5.16 本章小结 301
第6章 Lucene原理与应用 303
6.1 Lucene深入介绍 304
6.1.1 常用查询对象 304
6.1.2 查询语法与解析 304
6.1.3 查询原理 308
6.1.4 分析文本 309
6.1.5 使用Filter筛选搜索结果 316
6.1.6 遍历索引库 317
6.1.7 索引数值列 318
6.2 Lucene中的压缩算法 322
6.2.1 变长压缩 322
6.2.2 PForDelta 324
6.2.3 前缀压缩 326
6.2.4 差分编码 328
6.3 创建和维护索引库 330
6.3.1 创建索引库 330
6.3.2 向索引库中添加索引文档 331
6.3.3 删除索引库中的索引文档 334
6.3.4 更新索引库中的索引文档 334
6.3.5 索引的合并 335
6.3.6 索引文件格式 335
6.4 查找索引库 338
6.4.1 查询过程 338
6.4.2 常用查询 342
6.4.3 基本词查询 343
6.4.4 模糊匹配 343
6.4.5 布尔查询 345
6.4.6 短语查询 347
6.4.7 跨度查询 349
6.4.8 FieldScoreQuery 353
6.5 读写并发控制 356
6.6 检索模型 356
6.6.1 向量空间模型 357
6.6.2 BM25概率模型 361
6.6.3 统计语言模型 367
6.7 本章小结 369
第7章 搜索引擎用户界面 370
7.1 实现Lucene搜索 370
7.2 实现搜索接口 372
7.2.1 编码识别 372
7.2.2 布尔搜索 375
7.2.3 指定范围搜索 375
7.2.4 搜索结果排序 376
7.2.5 搜索页面的索引缓存与
更新 377
7.3 历史搜索词记录 380
7.4 实现关键词高亮显示 381
7.5 实现分类统计视图 383
7.6 实现Ajax搜索联想词 388
7.6.1 估计查询词的文档频率 388
7.6.2 搜索联想词总体结构 389
7.6.3 服务器端处理 389
7.6.4 浏览器端处理 390
7.6.5 服务器端改进 395
7.6.6 拼音提示 398
7.6.7 部署总结 399
7.7 集成其他功能 399
7.7.1 拼写检查 399
7.7.2 分类统计 400
7.7.3 相关搜索 402
7.7.4 再次查找 405
7.7.5 搜索日志 405
7.8 搜索日志分析 407
7.8.1 日志信息过滤 407
7.8.2 信息统计 409
7.8.3 挖掘日志信息 411
7.9 本章小结 412
第8章 使用Solr实现企业搜索 413
8.1 Solr简介 413
8.2 Solr基本用法 414
8.2.1 Solr服务器端的配置与
中文支持 415
8.2.2 把数据放进Solr 421
8.2.3 删除数据 423
8.2.4 Solr客户端与搜索界面 424
8.2.5 Spring实现的搜索界面 425
8.2.6 Solr索引库的查找 436
8.2.7 索引分发 440
8.2.8 Solr搜索优化 442
8.3 Solr扩展与定制 445
8.3.1 Solr中字词混合索引 445
8.3.2 相关检索 447
8.3.3 搜索结果去重 449
8.3.4 定制输入输出 453
8.3.5 分布式搜索 457
8.3.6 SolrJ查询分析器 458
8.3.7 扩展SolrJ 466
8.3.8 扩展Solr 467
8.3.9 查询Web图 471
8.4 本章小结 473
第9章 地理信息系统案例分析 474
9.1 新闻提取 474
9.2 POI信息提取 479
9.2.1 提取主体 484
9.2.2 提取地区 485
9.2.3 指代消解 487
9.3 机器翻译 489
9.3.1 词对齐 490
9.3.2 翻译公司名 491
9.3.3 调整语序 493
9.4 本章小结 494
第10章 户外活动搜索案例分析 495
10.1 爬虫 495
10.2 信息提取 497
10.3 活动分类 501
10.4 搜索 501
10.5 本章小结 502
参考资料 503
8.2.2.1 一般性软件项目优化案例
假设我们有这么一个项目,外部系统D通过系统对外提供的REST API接口从系统内部获取信息,从中提取出有效的信息,并通过JDBC存储到某数据库系统S中,以便供系统其他部分使用,上述操作的执行频率为每天一次,一般在午夜当系统空闲时定时执行。为了实现高可用性(High Availability),外部系统D部署在两台服务器上,因此需要分别从这两台服务器上获取信息并将信息插入数据库中,有效信息的条数达到了上千条,数据库插入操作次数则为有效信息条数的两倍。系统架构图如图8-1所示。
图8-1 系统架构图
为了快速地实现预期效果,在最初的实现中优先考虑了功能的实现,而未考虑系统性能和代码可读性等。系统大致有以下的实现。
(1)REST API获取信息、数据库操作可能抛出的异常信息都被记录到日志文件中,作为调试用。
(2)共有5次数据库连接操作,包括第一次清空数据库表,针对两个外部系统D各有两次数据库插入操作,这5个连接都是独立的,用完之后即释放。
(3)所有的数据库插入语句都是使用java.sql.Statement类生成的。
(4)所有的数据库插入语句,都是单条执行的,即生成一条执行一条。
(5)整个过程都是在单个线程中执行的,包括数据库表清空操作,数据库插入操作,释放数据库连接。
(6)数据库插入操作的JDBC代码散布在代码中。虽然这个版本的系统可以正常运行,达到了预期的效果,但是效率很低,从通过 REST API获取信息,到解析并提取有效信息,再到数据库插入操作,总共耗时100秒左右。而预期的时间应该在一分钟以内,这显然是不符合要求的。
开始分析整个过程有哪些耗时操作,以及如何提升效率,缩短程序执行的时间。通过REST API获取信息,因为是使用外部系统提供的API,所以无法在此处提升效率;取得信息之后解析出有效部分,因为是对特定格式的信息进行解析,所以也无效率提升的空间。综上所述,效率可以大幅度提升的空间在数据库操作部分以及程序控制部分。
针对日志的优化
因为从两台服务器的外部系统D上获取到的信息是相同的,所以数据库插入操作会抛出异常,异常信息类似于“Attempt to insert duplicate record”,这样的异常信息跟有效信息的条数相等,有上千条。这种情况是能预料到的,所以可以考虑关闭日志记录,或者不关闭日志记录而是更改日志输出级别,只记录严重级别(severe level)的错误信息,并将此类操作的日志级别调整为警告级别(warning level),这样就不会记录以上异常信息了。本项目使用的是 Java 自带的日志记录类,以下配置文件将日志输出级别设置为严重级别。
通过上述的优化之后,性能有了大幅度的提升,从原来的100秒左右降到了50秒左右。为什么仅仅不记录日志就能有如此大幅度的性能提升呢?查阅资料,发现已经有人做了相关的研究与实验。经常听到Java程序比C/C++程序慢的言论,但是运行速度慢的真正原因是什么,估计很多人并不清楚。对于CPU密集型的程序(即程序中包含大量计算),Java程序可以达到C/C++程序同等级别的速度,但是对于I/O密集型的程序(即程序中包含大量I/O操作),Java程序的速度就远远慢于C/C++程序了,很大程度上是因为C/C++程序能直接访问底层的存储设备。因此,不记录日志而得到大幅度性能提升的原因是,Java程序的I/O操作较慢,是一个很耗时的操作。
针对数据库连接的优化
假设程序中共有若干次数据库连接操作,每次都需重新建立数据库连接,数据库插入操作完成之后又立即释放了,数据库连接没有被复用。为了做到共享数据库连接,可以通过单例模式 (Singleton Pattern)获得一个相同的数据库连接,每次数据库连接操作都共享这个数据库连接。这里没有使用数据库连接池(Database Connection Pool)是因为在程序只有少量的数据库连接操作,只有在大量并发数据库连接的时候才需要连接池。
通过上述的优化之后,性能有了小幅度的提升,从50秒左右降到了40秒左右。共享数据库连接而得到的性能提升的原因是,数据库连接是一个耗时耗资源的操作,需要同远程计算机进行网络通信,建立TCP连接,还需要维护连接状态表,建立数据缓冲区。如果共享数据库连接,则只需要进行一次数据库连接操作,省去了多次重新建立数据库连接的时间。
针对数据库插入数据的优化
针对多线程的优化
......
很多搜索相关的技术已经得到了初步的解决。在国内产业界也已经有很多公司掌握了基本的搜索开发技术并拥有专业的搜索技术开发人员。但是越来越多有价值的资讯对现有技术的处理能力仍然是一个挑战。
为了方便实践,需要有良好实现的代码作为参考。为了节约篇幅,书中的代码只是核心片段。本书相关代码的完整版本在附带光盘中可以找到。
作者罗刚在参加编写本书之前,还独立撰写过《自己动手写搜索引擎》一书,与王振东共同编写过《自己动手写网络爬虫》一书。经过10多年的技术积累以及猎兔搜索技术团队每年若干的研发投入,相信猎兔已经能够比以前做得更好。但越是深入接触客户的需求,越感觉到技术本身仍需要更多进步,才能满足实用的需要。写这本书也是考虑到,也许还需要更多的前进,才能使技术产生质的飞跃。
本书分为相关技术总体介绍部分、爬虫部分、全文检索部分、自然语言处理部分以及相关案例分析部分。
爬虫部分从基本的爬虫原理开始讲解,通过介绍优先级队列、宽度优先搜索等内容引领读者入门;然后根据当前风起云涌的云计算热潮,重点讲述了云计算的基本原理及其在搜索中的应用,以及Web图分析、信息抽取等内容;为了
解密搜索引擎技术实战 Lucene&Java精华版(第3版) 下载 mobi epub pdf txt 电子书 格式
解密搜索引擎技术实战 Lucene&Java精华版(第3版) 下载 mobi pdf epub txt 电子书 格式 2024
解密搜索引擎技术实战 Lucene&Java精华版(第3版) 下载 mobi epub pdf 电子书虽然贵了点,但还是买了。该怎么评价京东了,嗯送货快
评分正版书,还没看
评分书不错,就是价格比第三方书店稍贵了一点
评分学生甲:因为爱情是容不下小三的。[阴险][阴险]
评分项目要用,但是还没看……内容还是挺丰富的~
评分[憨笑][憨笑][憨笑]
评分统一回复,赚京豆
评分整体包装不错,全新
评分理论有点多,上手的东西有限
解密搜索引擎技术实战 Lucene&Java精华版(第3版) mobi epub pdf txt 电子书 格式下载 2024