WEB开发网
开发学院软件开发Java dySE:一个 Java 搜索引擎的实现,第 1 部分: 网络... 阅读

dySE:一个 Java 搜索引擎的实现,第 1 部分: 网络爬虫

 2010-07-30 00:00:00 来源:WEB开发网   
核心提示: 爬虫从 Internet 中爬取众多的网页作为原始网页库存储于本地,然后网页分析器抽取网页中的主题内容交给分词器进行分词,dySE:一个 Java 搜索引擎的实现,第 1 部分: 网络爬虫(3),得到的结果用索引器建立正排和倒排索引,这样就得到了索引数据库,其实现主要是利用 Java 中的 UR

爬虫从 Internet 中爬取众多的网页作为原始网页库存储于本地,然后网页分析器抽取网页中的主题内容交给分词器进行分词,得到的结果用索引器建立正排和倒排索引,这样就得到了索引数据库,用户查询时,在通过分词器切割输入的查询词组并通过检索器在索引数据库中进行查询,得到的结果返回给用户。

无论搜索引擎的规模大小,其主要结构都是由这几部分构成的,并没有大的差别,搜索引擎的好坏主要是决定于各部分的内部实现。

有了上述的对与搜索引擎的整体了解,我们来学习 dySE 中爬虫模块的具体设计和实现。

Spider 的设计

网页收集的过程如同图的遍历,其中网页就作为图中的节点,而网页中的超链接则作为图中的边,通过某网页的超链接 得到其他网页的地址,从而可以进一步的进行网页收集;图的遍历分为广度优先和深度优先两种方法,网页的收集过程也是如此。综上,Spider 收集网页的过程如下:从初始 URL 集合获得目标网页地址,通过网络连接接收网页数据,将获得的网页数据添加到网页库中并且分析该网页中的其他 URL 链接,放入未访问 URL 集合用于网页收集。下图表示了这个过程:

图 3. Spider 工作流程
dySE:一个 Java 搜索引擎的实现,第 1 部分: 网络爬虫

Spider 的具体实现

网页收集器 Gather

网页收集器通过一个 URL 来获取该 URL 对应的网页数据,其实现主要是利用 Java 中的 URLConnection 类来打开 URL 对应页面的网络连接,然后通过 I/O 流读取其中的数据,BufferedReader 提供读取数据的缓冲区提高数据读取的效率以及其下定义的 readLine() 行读取函数。代码如下 ( 省略了异常处理部分 ):

上一页  1 2 3 4 5 6  下一页

Tags:dySE 一个 Java

编辑录入:爽爽 [复制链接] [打 印]
赞助商链接