文档库 最新最全的文档下载
当前位置:文档库 › 中科院中文分词系统ICTCLAS之人名识别词典分析

中科院中文分词系统ICTCLAS之人名识别词典分析

中科院中文分词系统ICTCLAS之人名识别词典分析
中科院中文分词系统ICTCLAS之人名识别词典分析

中科院中文分词系统ICTCLAS之人名识别词典分析

标签:照片华为c

2007-05-13 06:13 13888人阅读评论(6) 收藏举报分类:

自然语言处理(2)

版权声明:本文为博主原创文章,未经博主允许不得转载。

前言、

请在阅读本文前,先确认已阅读过论文《张华平,刘群.基于角色标注的中国人名自动识别研究》。

论文把与人名相关的词分为了15个角色,通过词典查询,可以判断某些文字、词所属角色,然后根据模式匹配找到匹配上的名字。

当我分析nr.dct的时候,却发现nr.dct并非完全按照论文所描述的进行的角色划分。以下是我对tag统计后的nr.dct的内容,能够在论文中找到含义的,我标注上了含

义。

Tag Count:

Tag = B( 1), Count = 513, 姓氏

Tag = C( 2), Count = 955, 双名的首字

Tag = D( 3), Count = 1,043, 双名的末字

Tag = E( 4), Count = 574, 单名

Tag = F( 5), Count = 3, 前缀

Tag = G( 6), Count = 9, 后缀

*Tag = K( 10), Count = 0, 人名的上文

Tag = L( 11), Count = 1,198, 人名的下文

Tag = M( 12), Count = 1,684, 两个中国人名之间的成分

Tag = N( 13), Count = 67, <无>

*Tag = U( 20), Count = 0, 人名的上文与姓氏成词

*Tag = V( 21), Count = 0, 人名的末字与下文成词

Tag = X( 23), Count = 84, 姓与双名首字成词

Tag = Y( 24), Count = 47, 姓与单名成词

Tag = Z( 25), Count = 388, 双名本身成词

Tag = m( 44), Count = 58, <无>

Tag = *(100), Count = 1, 始##始

Tag = *(101), Count = 1, 末##末

一、关于粗分结果的切分

我们可以从这个统计结果看出,nr.dct中并没有U和V这两个标签,那ICTCLAS如何修正在粗分情况下错误切分的词语呢?据两个例子:

1、"邓/颖/超生/前/使用"

其中的"超生"就必须切开,分成"超/生",后期才可进一步的标注。

2、"叶/莲/美的/一位/亲戚"

其中"美的"必须切开,分成"美/的",后期才可进一步的标注。

首先是很不幸,对于上面第一个例子FreeICTCLAS无能为力,因为现在的ICTCLAS的nr.dct里面根本没有"超生"这个词,也就是说,如果粗分结果出现了"超生"这个错误组合了部分人名的词,那么ICTCLAS无法将其拆开从而正确识别人名。

那么对于第二个例子呢?

根据对现有的ICTCLAS的分析,注意到关于切分的地方有这么一个代码

if(m_tagType==TT_NORMAL||!dictUnknown.IsExist(pWordItems[nWordsIndex].sWord,44 ))

{

// 如果TT_NORMAL 或者NE词典中无此词(with tag 44)

// 将该词放到m_sWords[i]中,调整m_nWordPosition[i+1]的位置。

strcpy(m_sWords[i],pWordItems[nWordsIndex].sWord);//store currentword

m_nWordPosition[i+1]=m_nWordPosition[i]+strlen(m_sWords[i]);

}

else

{

if(!bSplit)

{

strncpy(m_sWords[i],pWordItems[nWordsIndex].sWord,2);//storecurrent word

m_sWords[i][2]=0;

bSplit=true;

}

else

{

unsigned int nLen=strlen(pWordItems[nWordsIndex].sWord+2);

strncpy(m_sWords[i],pWordItems[nWordsIndex].sWord+2,nLen);//storecurrent wor d

m_sWords[i][nLen]=0;

bSplit=false;

}

m_nWordPosition[i+1]=m_nWordPosition[i]+strlen(m_sWords[i]);

}

其中:

dictUnknown.IsExist(pWordItems[nWordsIndex].sWord,44)

到未登录词词典中去寻找标签为44的当前词,由此判定的是否继续执行切分操作。44是谁呢?前面的统计结果中已经有了:

Tag = m( 44), Count = 58, <无>

标签44(m)没有任何对应于论文的说明。关于切分,论文只提到了对于U、V的切分。那m是U还是V呢?因为一共就58个,所以我列出了所有Tag=44的项,大家可以看一下:

Key: 三和 ID= 2,564 (Tag=44, Frequency=1)

Key: 东家 ID= 744 (Tag=44, Frequency=1)

Key: 之和 ID= 4,052 (Tag=44, Frequency=1)

Key: 健在 ID= 1,490 (Tag=44, Frequency=7)

Key: 初等 ID= 482 (Tag=44, Frequency=2)

Key: 前程 ID= 2,379 (Tag=44, Frequency=1) Key: 华为 ID= 1,306 (Tag=44, Frequency=3) Key: 华以 ID= 1,307 (Tag=44, Frequency=1) Key: 同江 ID= 3,024 (Tag=44, Frequency=1) Key: 和田 ID= 1,229 (Tag=44, Frequency=2) Key: 国是 ID= 1,172 (Tag=44, Frequency=1) Key: 国都 ID= 1,164 (Tag=44, Frequency=1) Key: 图说 ID= 3,057 (Tag=44, Frequency=1) Key: 在理 ID= 3,889 (Tag=44, Frequency=1) Key: 天王 ID= 2,989 (Tag=44, Frequency=1) Key: 子书 ID= 4,247 (Tag=44, Frequency=1) Key: 子孙 ID= 4,248 (Tag=44, Frequency=1) Key: 学说 ID= 3,506 (Tag=44, Frequency=1) Key: 对白 ID= 780 (Tag=44, Frequency=1) Key: 帅才 ID= 2,828 (Tag=44, Frequency=1) Key: 平和 ID= 2,305 (Tag=44, Frequency=2) Key: 怡和 ID= 4,448 (Tag=44, Frequency=1) Key: 慈和 ID= 538 (Tag=44, Frequency=1) Key: 成说 ID= 444 (Tag=44, Frequency=1) Key: 文说 ID= 3,186 (Tag=44, Frequency=3) Key: 新说 ID= 3,416 (Tag=44, Frequency=5) Key: 明说 ID= 2,130 (Tag=44, Frequency=4) Key: 有请 ID= 3,772 (Tag=44, Frequency=1) Key: 来时 ID= 1,817 (Tag=44, Frequency=1) Key: 来由 ID= 1,820 (Tag=44, Frequency=1) Key: 永不 ID= 3,746 (Tag=44, Frequency=1) Key: 清谈 ID= 2,434 (Tag=44, Frequency=1) Key: 清还 ID= 2,429 (Tag=44, Frequency=6) Key: 特等 ID= 2,957 (Tag=44, Frequency=1) Key: 王开 ID= 3,115 (Tag=44, Frequency=1) Key: 生就 ID= 2,674 (Tag=44, Frequency=1) Key: 石向 ID= 2,720 (Tag=44, Frequency=4) Key: 维和 ID= 3,152 (Tag=44, Frequency=1) Key: 美的 ID= 2,075 (Tag=44, Frequency=3)

Key: 良将 ID= 1,938 (Tag=44, Frequency=1)

Key: 若是 ID= 2,556 (Tag=44, Frequency=1)

Key: 行将 ID= 3,450 (Tag=44, Frequency=1)

Key: 远在 ID= 3,847 (Tag=44, Frequency=3)

Key: 长发 ID= 388 (Tag=44, Frequency=1)

Key: 鲁迅文学奖 ID= 2,005 (Tag=44, Frequency=1)

Key: 茅盾文学奖 ID= 2,059 (Tag=44, Frequency=3)

其中有我们刚才说的"美的",也就是说第二个例句 "叶/莲/美的/一位/亲戚" 会因为这个Tag=m的"美的"词条而成功的被切分为两条。

从这个例句,我们感觉,Tag=m相当于论文里的V,既"人名的末字与下文成词"。可是真的是这样么?

当我继续搜索标签为44的"天王"这个词条的时候,我注意到了199801人民日报语料中只有一条句子和拆分有关:

"前几天王老头刚收到小孩寄来的照片"

这句话是"人名的上文与姓氏成词",也就是对应于论文的U。

这回就乱套了,"m"既对应U又对应V。按照上面拆分的代码,不管任何情况,将m的第一个字拆出来。

做为V还好说,第一个字是名字的末字。但是对于U来说,可就完全不见得了,对于U,应该是拆除了最后一个字的部分。二者交集只有一种特例情况,就是m的词长是2个字。这样拆第一个字和拆最后一个字事实上一样。观察上面Tag=m的词条,我们会发现,除了"茅盾文学奖"和"鲁迅文学奖"这两个莫名其妙的词条外,其余的词条全都是两个字的。词长上满足刚才说的特例。

难道就没有3个字的U和V了么?我相信肯定会有满足U或者V的三字词、四字词,这才是更通用的情况,而FreeICTCLAS里面将U,V特例化成了只允许为2字的词。估计也是因为这个原因,也就没有对应它为U或者V,而是用了另一个字母小写m来表示。

总结一下,FreeICTCLAS实际上并没有真正的实现论文中所说的U,V这两个需要切分的Tag,取而代之的是一个在2个字成词的特例情况下等效的m来针对两个字成词的特例进行处理。

二、关于前缀、后缀的思考

关于FreeICTCLAS中判定词的Pattern有下列几种:

//BBCD:姓+姓+名1+名2;

//BBE: 姓+姓+单名;

//BBZ: 姓+姓+双名成词;

//BCD: 姓+名1+名2;

//BE: 姓+单名;

//BEE: 姓+单名+单名;韩磊磊

//BG: 姓+后缀

//BXD: 姓+姓双名首字成词+双名末字

//BZ: 姓+双名成词;

//B: 姓

//CD: 名1+名2;

//EE: 单名+单名;

//FB: 前缀+姓

//XD: 姓双名首字成词+双名末字

//Y: 姓单名成词

下面是nr.dct关于前缀的词条:

Tag = F, 前缀

Key: 大 ID= 588 (Tag=5, Frequency=3)

Key: 老 ID= 1,834 (Tag=5, Frequency=56)

Key: 小 ID= 3,359 (Tag=5, Frequency=68)

下面是nr.dct关于后缀的词条:

Tag = G, 后缀

Key: 哥 ID= 1,014 (Tag=6, Frequency=2)

Key: 公 ID= 1,071 (Tag=6, Frequency=13)

Key: 姐 ID= 1,579 (Tag=6, Frequency=4)

Key: 老 ID= 1,834 (Tag=6, Frequency=32)

Key: 某 ID= 2,157 (Tag=6, Frequency=40)

Key: 嫂 ID= 2,573 (Tag=6, Frequency=14)

Key: 氏 ID= 2,758 (Tag=6, Frequency=14)

Key: 帅 ID= 2,827 (Tag=6, Frequency=18)

Key: 总 ID= 4,269 (Tag=6, Frequency=2)

关于前缀、后缀也有些不解。

既然可以如下成词:

//FB: 前缀+姓

//BG: 姓+后缀

那么"张老师"、"周总理"这种两个字的后缀为什么没有收录进来呢?

另外,前缀也有可能是2个字的,比如"馄饨侯"、"泥人张"、"年糕陈",在前缀中也没有收录进来。

那么"老师","总理"这么常用的后缀在词库里是什么呢?

Key: 总理 ID=4,281

(Tag=11, Frequency=105)

(Tag=12, Frequency=110)

Key: 老师 ID=1,851

(Tag=12, Frequency=27)

11是L(实际上是论文中的K),人名的上文;12是M(实际上是论文中的L),人名的下文。

在语料库寻找一番后,注意到,"周总理"被标注为"周/nr 总理/n",并不将二者合并为一个人名,做为同位语处理,后者为名词。因此估计所有两个字的前缀、后缀都是这样进行的标注,而这里所谓的前缀、后缀只是针对单字情况下的前缀、后缀。

三、关于(B)姓氏中出现的错误词条

(B)中有一些词条是不合理的。比如"建军"被标注为B,显然应该拆分为建C军D;而

Key: 孔子 ID=1,779

(Tag=1, Frequency=5)

应该把"子"做为后缀G,"孔"为姓氏B,形成BG搭配。在Tag为B中,有大量的这类的例子。我感觉这是在根据语料库学习过程中,预处理程序做的不够好,从而导致了这种现象。论文中提到,北大标注的语料库没有能够区分姓和名,这应该是导致nr.dct词典里姓名标注错误的主要原因。而且我怀疑,前面的前缀、后缀是人工总结的,而不是自动抽取出来的。

四、关于论文中的(K)人名的上文、(L)人名的下文、(M)两个中国人名之间的成分

这三个角色如果按照论文中的字母去找,一定会出问题。

需要注意,词典中没有标签为K,人名的上文,的词条。却多出来一个N,论文中没有对应条目。我将N对应的词条贴出来:

[ 13] Key: 帮助 ID= 181 (Tag=13, Frequency=1)

[ 13] Key: 保 ID= 189 (Tag=13, Frequency=1) [ 13] Key: 保山 ID= 192 (Tag=13, Frequency=1)

[ 13] Key: 背着 ID= 212 (Tag=13, Frequency=1)

[ 13] Key: 并 ID= 280 (Tag=13, Frequency=1) [ 13] Key: 部署 ID= 326 (Tag=13, Frequency=1)

[ 13] Key: 称 ID= 430 (Tag=13, Frequency=1) [ 13] Key: 称赞 ID= 431 (Tag=13, Frequency=1)

[ 13] Key: 出局 ID= 489 (Tag=13, Frequency=1)

[ 13] Key: 代表 ID= 630 (Tag=13, Frequency=1)

[ 13] Key: 的 ID= 685 (Tag=13, Frequency=2) [ 13] Key: 对 ID= 779 (Tag=13, Frequency=19) [ 13] Key: 分析 ID= 874 (Tag=13, Frequency=1)

一种基于词典的中文分词法的设计与实现

一种基于词典的中文分词法的设计与实 现 摘要:中文分词就是把没有明显分隔标志的中文字串切分为词串,它是其他中文信息处理的基础,广泛应用于搜索引擎、自动翻译、语音合成、自动分类、自动摘要、自动校对等领域。就中文分词的基本方法作了简单阐述,并介绍了一种基于词典采用最大匹配法实现中文分词的方法。 关键词:中文分词;词库索引;正向最大匹配法 1 中文分词 中文分词技术属于自然语言处理技术范畴,对于一句话,人可以通过自己的知识来明白哪些是词,哪些不是词,但如何让计算机也能理解?其处理过程就是分词算法。 1.1中文分词方法的种类 中文自动分词方法有多种,一般来说大致可归结为以下三大类:基于词典的分词方法、基于统计的分词方法、基于规则和基于统计相结合的分词方法[2]。1.1.1基于词典的分词方法。基于词典的分词方法,又叫做基于字符串匹配的分词方法。其基本思想是:事先建立词库,其中包含所有可能出现的词。对于给定的待分词的汉子串Str,按照某种确定的原则切取Str 的子串,若该子串与词库中的某词条相匹配,则该子串是就是词,继续分割其余的部分,直到剩余部分为空;否则,该子串不是词,转到上面重新切取Str的子串进行匹配。1.1.2基于统计的分词方法。基于词典分词方法要借助词典来进行,而中文的构词非常灵活,词的数目几乎是无限的,因此要构造完备的词典几乎是不可能的。鉴于上述分词方法存在的这些缺点,一种基于统计的分词方法应运而生。这种方法撇开词典,根据字串出现的频率来判断这个字串是否是词。该方法对于大的语料,分全率还可以,但是对于小的语料分全率就比较低。该方法的另一个缺点就是不够准确,有些经常一起出现的单字构成的字串其实不是词。但是由于出现的频率很高,就被分出来当作词处理了,而且这样的“词”还非常多, 例如“这一”、“之一”、“有的”、“我的”、“许多的”等。实际应用的统计分词系统都要使用一部基本的分词词典进行串匹配分词,同时使用统计方法识别一些新的词,即将串频统计和串匹配结合起来,既发挥匹配分词切分速度快、效率高的特点,又利用了无词典分词结合上下文识别生词、自动消除歧义的优点。1.1.3基于规则和基于统计相结合的分词方法。该方法首先运用最大匹配作初步切分,然后对切分的边界处进行歧义探测,发现歧义,最后运用统计和规则相结合的方法来判断正确的切分[4]。运用不同的规则解决人名、地名、机构名识别,运用词法结构规则来生成复合词和衍生词。日前这种方法可以解决汉语中最常见的歧义类型:单字交集型歧义。并对人名、地名、机构名、后缀、动词/形容词重叠、衍生词等词法结构进行识别处理,基本解决了分词所面临的最关键的问题。若词典结构和算法设计优秀,分词速度将非常快。 1.2分词中的难题 有了成熟的分词算法,是否就能容易的解决中文分词的问题呢?事实远非如此。中文是一种十分复杂的语言,让计算机理解中文语言更是困难。在中文分词过程中,有两大难题一直没有完全突破。1.2.1歧义识别。歧义是指同样的一句话,可能有两种或者更多的切分方法。例如:“表面的”,因为“表面”和“面的”都是词,那么这个短语就可以分成“表面的”和“表面的”,这种称为交叉歧义,像这种交叉歧义十分常见。“化妆和服装”可以分成“化妆和服装”或者“化妆和服装”。由于没有人的知识去理解,计算机很难知道到底哪个方案正确。交叉歧义

中文分词切词超详细分析

前面我们讲个搜索引擎如何搜集网页,今天说下第二个过程网页预处理,其中中文分词就显得尤其重要,下面就详细讲解一下搜索引擎是怎么进行网页预处理的: 网页预处理的第一步就是为原始网页建立索引,有了索引就可以为搜索引擎提供网页快照功能;接下来针对索引网页库进行网页切分,将每一篇网页转化为一组词的集合;最后将网页到索引词的映射转化为索引词到网页的映射,形成倒排文件(包括倒排表和索引词表),同时将网页中包含的不重复的索引词汇聚成索引词表。如下图所示: 一个原始网页库由若干个记录组成,每个记录包括记录头部信息(HEAD)和数据(DATA),每个数据由网页头信息(header),网页内容信息(content)组成。索引网页库的任务就是完成给定一个URL,在原始网页库中定位到该URL所指向的记录。 如下图所示:

对索引网页库信息进行预处理包括网页分析和建立倒排文件索引两个部分。中文自动分词是网页分析的前提。文档由被称作特征项的索引词(词或者字)组成,网页分析是将一个文档表示为特征项的过程。在对中文文本进行自动分析前,先将整句切割成小的词汇单元,即中文分词(或中文切词)。切词软件中使用的基本词典包括词条及其对应词频。 自动分词的基本方法有两种:基于字符串匹配的分词方法和基于统计的分词方法。 1) 基于字符串匹配的分词方法 这种方法又称为机械分词方法,它是按照一定的策略将待分析的汉字串与一个充分大的词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功(识别出一个词)。 按照扫描方向的不同,串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大或最长匹配,和最小或最短匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。常用的几种机械分词方法如下:

中文分词基础件(基础版)使用说明书

索源网https://www.wendangku.net/doc/df10989515.html,/ 中文分词基础件(基础版) 使用说明书 北京索源无限科技有限公司 2009年1月

目录 1 产品简介 (3) 2 使用方法 (3) 2.1 词库文件 (3) 2.2 使用流程 (3) 2.3 试用和注册 (3) 3 接口简介 (4) 4 API接口详解 (4) 4.1初始化和释放接口 (4) 4.1.1 初始化分词模块 (4) 4.1.2 释放分词模块 (4) 4.2 切分接口 (5) 4.2.1 机械分词算法 (5) 4.3 注册接口 (8) 5 限制条件 (9) 6 附录 (9) 6.1 切分方法定义 (9) 6.2 返回值定义 (9) 6.3 切分单元类型定义 (9)

1 产品简介 索源中文智能分词产品是索源网(北京索源无限科技有限公司)在中文信息处理领域以及搜索领域多年研究和技术积累的基础上推出的智能分词基础件。该产品不仅包含了本公司结合多种分词研发理念研制的、拥有极高切分精度的智能分词算法,而且为了适应不同需求,还包含多种极高效的基本分词算法供用户比较和选用。同时,本产品还提供了在线自定义扩展词库以及一系列便于处理海量数据的接口。该产品适合在中文信息处理领域从事产品开发、技术研究的公司、机构和研究单位使用,用户可在该产品基础上进行方便的二次开发。 为满足用户不同的需求,本产品包括了基础版、增强版、专业版和行业应用版等不同版本。其中基础版仅包含基本分词算法,适用于对切分速度要求较高而对切分精度要求略低的环境(正、逆向最大匹配)或需要所有切分结果的环境(全切分)。增强版在基础版的基础上包含了我公司自主开发的复合分词算法,可以有效消除切分歧义。专业版提供智能复合分词算法,较之增强版增加了未登录词识别功能,进一步提高了切分精度。行业应用版提供我公司多年积累的包含大量各行业关键词的扩展词库,非常适合面向行业应用的用户选用。 2 使用方法 2.1 词库文件 本产品提供了配套词库文件,使用时必须把词库文件放在指定路径中的“DictFolder”文件夹下。产品发布时默认配置在产品路径下。 2.2 使用流程 产品使用流程如下: 1)初始化 首先调用初始化函数,通过初始化函数的参数配置词库路径、切分方法、是否使用扩展词库以及使用扩展词库时扩展词的保存方式等。经初始化后获得模块句柄。 2)使用分词函数 初始化后可反复调用各分词函数。在调用任何函数时必要把模块句柄传入到待调用函数中。 3)退出系统 在退出系统前需调用释放函数释放模块句柄。 2.3 试用和注册 本产品初始提供的系统是试用版。在试用版中,调用分词函数的次数受到限制。用户必须向索源购买本产品,获取注册码进行注册后,方可正常使用本产品。 注册流程为: 1)调用序列号获取接口函数获取产品序列号; 2)购买产品,并将产品序列号发给索源。索源确认购买后,生成注册码发给用户; 3)用户使用注册码,调用注册接口对产品进行注册; 4)注册成功后,正常使用本产品。

中文分词实验

中文分词实验 一、实验目的: 目的:了解并掌握基于匹配的分词方法,以及分词效果的评价方法。 实验要求: 1、从互联网上查找并构建不低于10万词的词典,构建词典的存储结构; 2、选择实现一种机械分词方法(双向最大匹配、双向最小匹配、正向减字最大匹配法等)。 3、在不低于1000个文本文件,每个文件大于1000字的文档中进行中文分词测试,记录并分析所选分词算法的准确率、分词速度。 预期效果: 1、平均准确率达到85%以上 二、实验方案: 1.实验平台 系统:win10 软件平台:spyder 语言:python 2.算法选择 选择正向减字最大匹配法,参照《搜索引擎-原理、技术与系统》教材第62页的描述,使用python语言在spyder软件环境下完成代码的编辑。 算法流程图:

Figure Error! No sequence specified.. 正向减字最大匹配算法流程

Figure Error! No sequence specified.. 切词算法流程算法伪代码描述:

3.实验步骤 1)在网上查找语料和词典文本文件; 2)思考并编写代码构建词典存储结构; 3)编写代码将语料分割为1500个文本文件,每个文件的字数大于1000字; 4)编写分词代码; 5)思考并编写代码将语料标注为可计算准确率的文本; 6)对测试集和分词结果集进行合并; 7)对分词结果进行统计,计算准确率,召回率及F值(正确率和召回率的 调和平均值); 8)思考总结,分析结论。 4.实验实施 我进行了两轮实验,第一轮实验效果比较差,于是仔细思考了原因,进行了第二轮实验,修改参数,代码,重新分词以及计算准确率,效果一下子提升了很多。 实验过程:

百度中文分词技巧

百度中文分词技巧 什么是中文分词?我们都知道,英文句子都是由一个一个单词按空格分开组成,所以在分词方面就方便多了,但我们中文是一个一个汉字连接而成,所以相对来说是比较复杂的。中文分词指的是将一个汉语句子切分成一个一个单独的词,按照一定的规则重新组合成词序列的过程。这个也称做“中文切词”。 分词对于搜索引擎有着很大的作用,是文本挖掘的基础,可以帮助程序自动识别语句的含义,以达到搜索结果的高度匹配,分词的质量直接影响了搜索结果的精确度。目前搜索引擎分词的方法主要通过字典匹配和统计学两种方法。 一、基于字典匹配的分词方法 这种方法首先得有一个超大的字典,也就是分词索引库,然后按照一定的规则将待分词的字符串与分词库中的词进行匹配,若找到某个词语,则匹配成功,这种匹配有分以下四种方式: 1、正向最大匹配法(由左到右的方向); 2、逆向最大匹配法(由右到左的方向); 3、最少切分(使每一句中切出的词数最小); 4、双向最大匹配法(进行由左到右、由右到左两次扫描) 通常,搜索引擎会采用多种方式组合使用。但这种方式也同样给搜索引擎带来了难道,比如对于歧义的处理(关键是我们汉语的博大精深啊),为了提高匹配的准确率,搜索引擎还会模拟人对句子的理解,达到识别词语的效果。基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。通常包括三个部分:分词子系统、句法语义子系统、总控部分。在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的理解过程。这种分词方法需要使用大量的语言知识和信息,当然我们的搜索引擎也在不断进步。 二、基于统计的分词方法 虽然分词字典解决了很多问题,但还是远远不够的,搜索引擎还要具备不断的发现新的词语的能力,通过计算词语相邻出现的概率来确定是否是一个单独的词语。所以,掌握的上下文越多,对句子的理解就越准确,分词也越精确。举个例子说,“搜索引擎优化”,在字典中匹配出来可能是:搜索/引擎/优化、搜/索引/擎/优化,但经过后期的概率计算,发现“搜索引擎优化”在上下文相邻出现的次数非常多,那么基于统计就会将这个词语也加入进分词索引库。关于这点我在《关于电商与圈的分词测试》就是同样的一个例子。 中文分词的应用分词准确性对搜索引擎来说十分重要,但如果分词速度太慢,即使准确性再高,对于搜索引擎来说也是不可用的,因为搜索引擎需要处理数以亿计的网页,如果分词耗用的时间过长,会严重影响搜索引擎内容更新的速度。因此对于搜索引擎来说,分词的准确性和速度,二者都需要达到很高的要求。 参考文档及网站: https://www.wendangku.net/doc/df10989515.html, https://www.wendangku.net/doc/df10989515.html, https://www.wendangku.net/doc/df10989515.html, https://www.wendangku.net/doc/df10989515.html,

中文分词免费同义词近义词词库2

同义词库暗无天日=天昏地暗暗笑=窃笑暗影=阴影暗语=切口=黑暗暗中肮脏=邋遢昂首=抬头昂首望天=傲睨一世昂扬=高昂凹地=洼地凹凸=高低熬煎=折磨熬炼=锻炼翱翔=飞翔傲岸=高傲傲慢=狂妄傲睨=渺视傲睨万物=傲世轻物傲睨一世=傲睨万物傲世轻物=傲睨万物傲视=睥睨傲雪欺霜=坚贞不屈傲卒多败=骄兵必败傲卒多降=骄兵必败奥秘=秘密=秘密奥密奥妙=玄妙懊悔=悔恨懊恼=烦恼懊丧=悔恨八百壮士=四行孤军才高八斗八斗之才= 八方受敌=四面楚歌八竿子打不着=八棍子撂不着八股=陈腔滥调八怪七喇=稀奇古怪八棍子撂不着=八竿子打不着八两半斤=不相上下八门五花=五花八门八面见光=八面玲珑八面玲珑=八面见光八面受敌=四面楚歌 八面威风=气势汹汹八字帖=发草帖巴结=逢迎巴望=渴望扒手=翦绺=废除拔除拔锚=起锚拔苗助长=适得其反拔取=选取拔擢=扶植跋扈=猖进退失据跋前疐后= 跋前踬后=动辄得咎跋文=后记把臂而谈=促膝谈心把柄=痛处把持=操纵把脉=切脉把守=看管把玩簸弄=戏弄把稳=当心把握=驾驭 把戏=花招罢工=歇工罢了=而已罢免=撤职罢手=歇手=放手罢休霸道=蛮横霸术=机谋霸占=攻克白痴=呆子白搭=白费鹤发白发= 白发苍颜=皓首苍颜白发银须=庞眉皓发白费=白搭白费心血=枉费心机白话=口语白驹过隙=光

阴似箭白腊=石蜡白蜡=洋蜡白日=白天白日飞升=白日升天 白日升天=白日飞升白手=空手白手起家=自食其力白叟=老人白天=白昼=白净白皙白云苍狗=沧海桑田白种人=碧眼儿白昼=白天白=利剑百般=千般百步穿杨=百发百中百尺竿头=扶摇直上百辞莫辩=有口难言百发百中=矢无虚发百孔千疮=民生凋敝百口=合家百里挑一=寥寥无几百了千当=千了百当百密一疏=鸭蛋虽密也有缝百思不解=大惑不解百无禁忌=童言无忌 百姓=黎民百依百顺=视为心腹百战百胜=势如破竹百折不回=一往直前百折不挠=百折不回=左右摆布摆荡=动摇摆架子=搭架子摆列=排列摆设=部署摆脱=开脱腐败败北= 败坏=松弛败尽家业=倾家荡产败类=莠民败露=败事败事=败露败兴=没趣败行=劣行拜把兄弟=换帖兄弟拜别=离别拜访=造访 拜鬼求神=求神拜鬼拜候=访问拜见=参见拜年=贺年拜托=托付=访候拜望拜谒=拜望扳缠不清=纠缠不清扳话=攀谈扳连=连累扳谈=交谈布鼓雷门班门弄斧= 班师=凯旅般游=盘游颁布=颁发颁布发表=宣布颁发=发表斑白=花白斑点=雀斑斑斓=美丽斑纹=花纹搬场=搬家 搬动=挪动转移搬家=搬迁搬弄=挑衅搬弄是非=挑拨离间搬迁=搬家=木屋板屋板滞=呆滞版图=邦畿办法=措施

关于百度中文分词系统研究

关于百度中文分词系统研究

所谓分词就是把字与字连在一起的汉语句子分成若干个相互独立、完整、正确的单词。词是最小的、能独立活动的、有意义的语言成分。计算机的所有语言知识都来自机器词典(给出词的各项信息) 、句法规则(以词类的各种组合方式来描述词的聚合现象) 以及有关词和句子的语义、语境、语用知识库。中文信息处理系统只要涉及句法、语义(如检索、翻译、文摘、校对等应用) ,就需要以词为基本单位。当汉字由句转化为词之后,才能使得句法分析、语句理解、自动文摘、自动分类和机器翻译等文本处理具有可行性。可以说,分词是机器语言学的基础。 分词准确性对搜索引擎来说十分重要,但如果分词速度太慢,即使准确性再高,对于搜索引擎来说也是不可用的,因为搜索引擎需要处理数以亿计的网页, 如果分词耗用的时间过长,会严重影响搜索引擎内容更新的速度。因此对于搜索引擎来说,分词的准确性和速度,二者都需要达到很高的要求。 分词算法的三种主要类型 现有的分词算法可分为三大类:基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。 》基于字符串匹配的分词方法。 这种方法又叫做机械分词方法,它是按照一定的策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功 (识别出一个词) 。按照扫描方向的不同,串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长) 匹配 和最小(最短) 匹配;按照是否与词性标注过程相结合,又可以分为单纯分词方 法和分词与标注相结合的一体化方法。常用的几种机械分词方法如下: 1) 正向最大匹配法(由左到右的方向) 。 通常简称为MM(Maximum Matching Method) 法。其基本思想为:设D 为词典,MAX 表示D 中的最大词长,STR 为待切分的字串。MM 法是每次从STR 中取长度为MAX 的子串与D 中的词进行匹配。若成功,则该子串为词,指针后移MAX 个汉字后继续匹配,否则子串逐次减一进行匹配。 2) 逆向最大匹配法(由右到左的方向) 。 通常简称为RMM ( Reverse Maximum MatchingMethod) 法。RMM 法的基本原理与MM 法相同,不同的是分词的扫描方向,它是从右至左取子串进行匹配。 3) 最少切分法(使每一句中切出的词数最小) 。 还可以将上述各种方法相互组合,例如,可以将正向最大匹配方法和逆向 最大匹配方法结合起来构成双向匹配法。由于汉语单字成词的特点,正向最小匹配和逆向最小匹配一般很少使用。一般说来,逆向匹配的切分精度略高于正向匹配,遇到的歧义现象也较少。统计结果表明,单纯使用正向最大匹配的错误率为1/169 ,单纯使用逆向最大匹配的错误率为1/ 245 。但这种精度还远远不能满足实际的需要。实际使用的分词系统,都是把机械分词作为一种初分手段,还需通过利用各种其它的语言信息来进一步提高切分的准确率。一种方法是改进

分词系统语文词典的词性标注问题

语文词典的词性标注问题 郭锐 零引言 本文讨论词典标注词性的必要性、标注词性的可能性和困难、现代汉语的内部分层和词性标注、词性标注应注意的问题四方面问题。 本文所依据的汉语词类体系是朱德熙、陆俭明、郭锐承担的国家七五社科项目“现代汉语词类研究”的体系。简介如下: 词 ┌──────┴──────┐ 组合词独立词 ┌─────┴─────┐┊ 实词虚词┊ ┌────┴────┐┌┼┬┐┊ 核词饰词┊┊┊┊┊ ┌──┴──┐┌┬┼┬┬┐┊┊┊┊┊ 谓词体词┊┊┊┊┊┊┊┊┊┊┊ ┌┼┐┌┬┼┬┐┊┊┊┊┊┊┊┊┊┊┊ ┊┊┊┊┊┊┊┊┊┊┊┊┊┊┊┊┊┊┊ ⒈⒉⒊⒋⒌⒍⒎⒏⒐⒑⒒⒓⒔⒕⒖⒗⒘⒙⒚ 动形状名方时处量区数数指副拟介连语助叹 容态位间所别量示声气 词词词词词词词词词词词词词词词词词词词 ⒛代词 (图:“现代汉语词类研究”系统简介) 词类按层级划出,基本词类共个,其中类根据语法功能划出,代词是特殊类,不是根据语法功能划出的,在功能上分别相当于动词、名词、时间词、处所词、数词、数量词、副词。各类举例如下:、动词:吃、洗、跑、休息、想、病、坐、有、是、来、能、可以、完成、思考。 、形容词:高、短、大、晚、干净、认真、伟大、不幸、有趣、可笑、结实、相同。 、状态词:雪白、甜丝丝、黑咕隆咚、轰轰烈烈、优良、酷热、瘦高、皑皑、旖旎。 、名词:石头、文化、国家、人民、船只、时间、钟头、长江、北京、孔子、学校。 、方位词:前、上、里、左、南、下面、后头、以前、周围、旁边、附近、对面。 、时间词:今天、去年、上午、刚才、过去、春节、正月、最近、拂晓、星期天。 、处所词:当地、原处、街头、野外、一旁、乡下、民间、远处、基层。

中科院中文分词系统调研报告

自然语言处理调研报告(课程论文、课程设计) 题目:最大正向匹配中文分词系统 作者:陈炳宏吕荣昌靳蒲 王聪祯孙长智 所在学院:信息科学与工程学院 专业年级:信息安全14-1 指导教师:努尔布力 职称:副教授 2016年10月29日

目录 一、研究背景、目的及意义 (3) 二、研究内容和目标 (4) 三、算法实现 (5) 四、源代码 (7) 1.seg.java 主函数 (7) 2. dict.txt 程序调用的字典 (10) 3.实验案例 (11) 五、小结 (12)

一、研究背景、目的及意义 中文分词一直都是中文自然语言处理领域的基础研究。目前,网络上流行的很多中文分词软件都可以在付出较少的代价的同时,具备较高的正确率。而且不少中文分词软件支持Lucene扩展。但不过如何实现,目前而言的分词系统绝大多数都是基于中文词典的匹配算法。 在这里我想介绍一下中文分词的一个最基础算法:最大匹配算法(Maximum Matching,以下简称MM算法) 。MM算法有两种:一种正向最大匹配,一种逆向最大匹配。

二、研究内容和目标 1、了解、熟悉中科院中文分词系统。 2、设计程序实现正向最大匹配算法。 3、利用正向最大匹配算法输入例句进行分词,输出分词后的结果。

三、算法实现 图一:算法实现 正向最大匹配算法:从左到右将待分词文本中的几个连续字符与词表匹配,如果匹配上,则切分出一个词。但这里有一个问题:要做到最大匹配,并不是第一次匹配到就可以切分的。 算法示例: 待分词文本: content[]={"中","华","民","族","从","此","站","起","来","了","。"} 词表: dict[]={"中华", "中华民族" , "从此","站起来"} (1) 从content[1]开始,当扫描到content[2]的时候,发现"中华"已经在

中文分词技术

一、为什么要进行中文分词? 词是最小的能够独立活动的有意义的语言成分,英文单词之间是以空格作为自然分界符的,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的基础与关键。 Lucene中对中文的处理是基于自动切分的单字切分,或者二元切分。除此之外,还有最大切分(包括向前、向后、以及前后相结合)、最少切分、全切分等等。 二、中文分词技术的分类 我们讨论的分词算法可分为三大类:基于字典、词库匹配的分词方法;基于词频度统计的分词方法和基于知识理解的分词方法。 第一类方法应用词典匹配、汉语词法或其它汉语语言知识进行分词,如:最大匹配法、最小分词方法等。这类方法简单、分词效率较高,但汉语语言现象复杂丰富,词典的完备性、规则的一致性等问题使其难以适应开放的大规模文本的分词处理。第二类基于统计的分词方法则基于字和词的统计信息,如把相邻字间的信息、词频及相应的共现信息等应用于分词,由于这些信息是通过调查真实语料而取得的,因而基于统计的分词方法具有较好的实用性。 下面简要介绍几种常用方法: 1).逐词遍历法。 逐词遍历法将词典中的所有词按由长到短的顺序在文章中逐字搜索,直至文章结束。也就是说,不管文章有多短,词典有多大,都要将词典遍历一遍。这种方法效率比较低,大一点的系统一般都不使用。 2).基于字典、词库匹配的分词方法(机械分词法) 这种方法按照一定策略将待分析的汉字串与一个“充分大的”机器词典中的词条进行匹配,若在词典中找到某个字符串,则匹配成功。识别出一个词,根据扫描方向的不同分为正向匹配和逆向匹配。根据不同长度优先匹配的情况,分为最大(最长)匹配和最小(最短)匹配。根据与词性标注过程是否相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。常用的方法如下: (一)最大正向匹配法 (MaximumMatchingMethod)通常简称为MM法。其基本思想为:假定分词词典中的最长词有i个汉字字符,则用被处理文档的当前字串中的前i个字作为匹配字段,查找字典。若字典中存在这样的一个i字词,则匹配成功,匹配字段被作为一个词切分出来。如果词典中找不到这样的一个i字词,则匹配失败,将匹配字段中的最后一个字去掉,对剩下的字串重新进行匹配处理……如此进行下去,直到匹配成功,即切分出一个词或剩余字串的长度为零为止。这样就完成了一轮匹配,然后取下一个i字字串进行匹配处理,直到文档被扫描完为止。

搜索引擎的现状和发展趋势

搜索引擎的现状和发展趋势

期末课程论文 论文标题:搜索引擎的现状与发展趋势课程名称:信息检索技术 课程编号:1220500 学生姓名:潘飞达 学生学号:1100310120 所在学院:计算机科学与工程学院 学习专业:计算机科学与技术 课程教师:王冲

2013年7月 1 日【摘要】 搜索引擎包括图片搜索引擎、全文索引、目录索引等,其发展历史可分为五个阶段,目前企业搜索引擎和网站运营搜索引擎运用范围较广。在搜索引擎的未来发展中,呈现出个性化,多元化,智能化,移动化,社区化等多个趋势。 【关键词】 发展过程、发展趋势、检索技巧、个性化、智能化 1 搜索引擎简介 搜索引擎是指根据一定的策略、运用特定的计算机程序从互联网上搜集信息,在对信息进行组织和处理后,为用户提供检索服务,将用户检索相关的信息展示给用户的系统。搜索引擎包括全文索引、目录索引、元搜索引擎、垂直搜索引擎、集合式搜索引擎、门户搜索引擎与免费链接列表等。百度和谷歌等是搜索引擎的代表。 其工作作原理分为抓取网页,处理网页和提供检索服务。抓取每个独立的搜索引擎都有自己的网页抓取程序,它顺着网页中的超链接,连续地抓取网页。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引文件。 搜索引擎是根据用户的查询请求,按照一定算法从索引数据中查找信息返回给用户。为了保证用户查找信息的精度和新鲜度,搜索引擎需要建立并维护一个庞大的索引数据库。一般的搜索引擎由网络机器人程序、索引与搜索程序、索引数据库等部分组成。

中文自动分词技术

中文自动分词技术是以“词”为基础,但汉语书面语不是像西方文字那样有天然的分隔符(空格),而是在语句中以汉字为单位,词与词之间没有明显的界限。因此,对于一段汉字,人可以通过自己的知识来明白哪些是词,哪些不是词,但如何让计算机也能理解?其处理过程词,就要应用到中文自动分词技术。下面依次介绍三种中文自动分词算法:基于词典的机械匹配的分词方法、基于统计的分词方法和基于人工智能的分词方法。 1、基于词典的机械匹配的分词方法: 该算法的思想是,事先建立词库,让它它是按照一定的策略将待分析的汉字串与一个充分大的词典中的词条进行匹配,若在词典中找到该字符串,则识别出一个词。按照扫描方向的不同,串匹配分词的方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,又可以分为最大匹配和最小匹配。按这种分类方法,可以产生正向最大匹配、逆向最大匹配,甚至是将他们结合起来形成双向匹配。由于汉字是单字成词的,所以很少使用最小匹配法。一般来说,逆向匹配的切分精度略高于正向匹配,这可能和汉语习惯将词的重心放在后面的缘故。可见,这里的“机械”是因为该算法仅仅依靠分词词表进行匹配分词 a)、正向减字最大匹配法(MM) 这种方法的基本思想是:对于每一个汉字串s,先从正向取出maxLength 个字,拿这几个字到字典中查找,如果字典中有此字,则说明该字串是一个词,放入该T的分词表中,并从s中切除这几个字,然后继续此操作;如果在字典中找不到,说明这个字串不是一个词,将字串最右边的那个字删除,继续与字典比较,直到该字串为一个词或者是单独一个字时结束。 b)、逆向减字最大匹配法(RMM ) 与正向减字最大匹配法相比,这种方法就是从逆向开始遍历。过程与正向减字最大匹配法基本相同,可以对文本和字典先做些处理,把他们都倒过来排列,然后使用正向减字最大匹法。 机械匹配算法简洁、易于实现.其中,最大匹配法体现了长词优先的原则,在实际工程中应用最为广泛。机械匹配算法实现比较简单,但其局限也是很明显的:效率和准确性受到词库

百度_baidu_搜索分词算法

Baidu查询分词算法 查询处理以及分词技术 如何设计一个高效的搜索引擎?我们可以以百度所采取的技术手段来探讨如何设计一个实用的搜索引擎.搜索引擎涉及到许多技术点,比如查询处理,排序算法,页面抓取算法,CACHE机制,ANTI-SPAM等等.这些技术细节,作为商业公司的搜索引擎服务提供商比如百度,GOOGLE等是不会公之于众的.我们可以将现有的搜索引擎看作一个黑盒,通过向黑盒提交输入,判断黑盒返回的输出大致判断黑盒里面不为人知的技术细节. 查询处理与分词是一个中文搜索引擎必不可少的工作,而百度作为一个典型的中文搜索引擎一直强调其”中文处理”方面具有其它搜索引擎所不具有的关键技术和优势.那么我们就来看看百度到底采用了哪些所谓的核心技术. 我们分两个部分来讲述:查询处理/中文分词. 一. 查询处理 用户向搜索引擎提交查询,搜索引擎一般在接受到用户查询后要做一些处理,然后在索引数据库里面提取相关的信息.那么百度在接受到用户查询后做了些什么工作呢? 1. 假设用户提交了不只一个查询串,比如”信息检索理论工具”.那么搜 索引擎首先做的是根据分隔符比如空格,标点符号,将查询串分割成若干子查询串,比如上面的查询就会被解析为:<信息检索,理论,工具>三个子字符串;这个道理 简单,我们接着往下看. 2. 假设提交的查询有重复的内容,搜索引擎怎么处理呢?比如查询”理论 工具理论”,百度是将重复的字符串当作只出现过一次,也就是处理成等价的”理论工具”,而GOOGLE显然是没有进行归并,而是将重复查询子串的权重增大进行处理.那么是如何得出这个结论的呢?我们可以将”理论工具”提交给百度,返回341,000篇文档,大致看看第一页的返回内容.OK.继续,我们提交查询”理论工具理论”,在看看返回结果,仍然是那么多返回文档,当然这个不能说明太多问题,那 看看第一页返回结果的排序,看出来了吗?顺序完全没有变化,而GOOGLE则排序有些变动,这说明百度是将重复的查询归并成一个处理的,而且字符串之间的先后出现顺序基本不予考虑(GOOGLE是考虑了这个顺序关系的). 3. 假设提交的中文查询包含英文单词,搜索引擎是怎么处理的?比如查询”电影BT下载”,百度的方法是将中文字符串中的英文当作一个整体保留,并以此为断点将中文切分开,这样上述的查询就切为<电影,BT,下载>,不论中间的英文是否一个字典里能查到的单词也好,还是随机的字符也好,都会当作一个整体来对待.

分词技术研究报告

分词技术研究报告(1) 2008-9-13 7:28:22 技术报告报告人:杨超一、研究内容目前,国内的每个行业、领域都在飞速发展,这中间产生了大量的中文信息资源,为了能够及时准确的获取最新的信息,中文搜索引擎是必然的产物。中文搜索引擎与西文搜索引擎在实现的机制和原理上大致雷同,但由于汉语本身的特点,必须引入对于中文语言的处理技术,而汉语自动分词技术就是其中很关键的部分。汉语自动分词到底对搜索引擎有多大影响?对于搜索引擎来说,最重要的并不是找到所有结果,最重要的是把最相关的结果排在最前面,这也称为相关度排序。中文分词的准确与否,常常直接影响到对搜索结果的相关度排序。分词准确性对搜索引擎来说十分重要,但如果分词速度太慢,即使准确性再高,对于搜索引擎来说也是不可用的,因为搜索引擎需要处理数以亿计的网页,如果分词耗用的时间过长,会严重影响搜索引擎内容更新的速度。因此对于搜索引擎来说,分词的准确性和速度,二者都需要达到很高的要求。研究汉语自动分词算法,对中文搜索引擎的发展具有至关重要的意义。快速准确的汉语自动分词是高效中文搜索引擎的必要前提。本课题研究中文搜索引擎中汉语自动分词系统的设计与实现,从目前中文搜索引擎的发展现状出发,引出中文搜索引擎的关键技术汉语自动分词系统 的设计。首先研究和比较了几种典型的汉语自动分词词典机制,指出各词典机制的优缺点,然后分析和比较了几种主要的汉语自动分词方法,阐述了各种分词方法的技术特点。针对课题的具体应用领域,提出改进词典的数据结构,根据汉语中二字词较多的特点,通过快速判断二字词来优化速度;分析中文搜索引擎下歧义处理和未登陆词处理的技术,提出了适合本课题的自动分词算法,并给出该系统的具体实

分词方法详解

《汉语分词的主要技术及其应用展望》 一、汉语自动分词的提出 词具有语音、语义和结构三大特征,其语义特征表现在必须具备一定的意义,表明客观现实中的某一事物的性质、特征、行为和关系等,没有意义的词是不存在的。词里包含有两种不同性质的意义:词汇意义和语法意义。词的结构特征表现在词在结构上是一个不可分割的整体,其意义不是它的几个构成成分(如果存在的话)的意义的简单总和。 人们在阅读时,大脑有一个模糊的分词过程,它是与视觉到声音的转换和语义理解交叉或同时进行的,并以语感的形式体现出来,由于文化修养和知识水平的差异,不同的人对词和非词,词和词组的预感差别很大。因而人工分词的同一性得不到保证。北京航空学院曾做过一个实验,三十余个具有高中文化水平的青年对五百字的一个语言材料人工分词,同一率只有50%左右。在大篇文字材料处理时,人工分词不仅速度慢,长时间单调枯燥工作也使错误切分次数大大增加。这些都表明人工分词不能满足汉字处理现代化的要求,但要对书面汉语实现计算机自动分词,并非易事,这与汉语特性有很大关系。与印欧语系相比,现代汉语至少在四个方面于分词不利:第一,汉语的词不分写,而且词无明确的形态标志,这给计算机进行汉语的词法分析带来一大障碍。其次,汉语是一种无形态变化的分析型语言,缺乏明显的句法形式标记,其语法主要靠虚词和不同的词序来实现。第三,汉语的形态不发达,增加了语言的表层结构对语义的依赖性,所以,汉语句子成分的语法作用强烈依赖于该成分的意义。第四,汉语构词具有极大的灵活性和自由性。只要词汇意义和语言习惯允许,就能组合起来,没有限制。如果在自动分词处理时,既不进行语法分析,也不进行语义理解,只是机械的匹配比较,那很容易实现,但必然会出现许多错误切分,而要提高分词精度,就必须进行语法分析和语义理解,于是就引发了一系列耐人寻味的问题。 汉语词自动切分是计算机中文信息处理的第一步,也是计算机科学界、语言文字学界以及信息管理学界所面临的挑战性难题,这一“瓶颈”的解决是计算机自然语言理解、人工智能、信息检索、机器翻译和自动文摘等领域突破的关键, 长期以来一直困扰着这一研究领域的许多专家学者。尽管汉语词自动切分研究已经取得了可喜的进展,但是在汉语词的规范、自动分词算法突破、切分歧义处理、自然语言理解和人工智能等诸多领域还存在着难以克服的阻碍,仍需要多个学科领域的专家学者们通力协作,才能获得新的突破。 二、现有的分词方法 为了克服汉语词计算机自动切分这一难题, 许多年来, 大量的学者都加入 了这一领域的研究, 使汉语自动分词取得了丰硕的研究成果。近年来, 语言学 界、人工智能领域和情报检索界的学者们, 在汉语自动分词与自动标引的研究 与实践上进行了大量的研究, 找到了许多解决汉语分词的方法,归纳起来有: 最大匹配法、逆向最大匹配法、逐词遍历法、设立切分标志法、最佳匹配法、 有穷多层次列举法、二次扫描法、高频优先分词法、基于期望的分词法、联想 ——回溯法、双向扫描法、邻接约束法、扩充转移网络分词法、语境相关法、

中文分词方法

分词算法设计中的几个基本原则: 1、颗粒度越大越好:用于进行语义分析的文本分词,要求分词结果的颗粒度越大,即单词的字数越多,所能表示的含义越确切,如:“公安局长”可以分为“公安局长”、“公安局长”、“公安局长”都算对,但是要用于语义分析,则“公安局长”的分词结果最好(当然前提是所使用的词典中有这个词) 2、切分结果中非词典词越少越好,单字字典词数越少越好,这里的“非词典词”就是不包含在词典中的单字,而“单字字典词”指的是可以独立运用的单字,如“的”、“了”、“和”、“你”、“我”、“他”。例如:“技术和服务”,可以分为“技术和服务”以及“技术和服务”,但“务”字无法独立成词(即词典中没有),但“和”字可以单独成词(词典中要包含),因此“技术和服务”有1个非词典词,而“技术和服务”有0个非词典词,因此选用后者。 3、总体词数越少越好,在相同字数的情况下,总词数越少,说明语义单元越少,那么相对的单个语义单元的权重会越大,因此准确性会越高。 下面详细说说正向最大匹配法、逆向最大匹配法和双向最大匹配法具体是如何进行的: 先说说什么是最大匹配法:最大匹配是指以词典为依据,取词典中最长单词为第一个次取字数量的扫描串,在词典中进行扫描(为提升扫描效率,还可以跟据字数多少设计多个字典,然后根据字数分别从不同字典中进行扫描)。例如:词典中最长词为“中华人民共和国”共7个汉字,则最大匹配起始字数为7个汉字。然后逐字递减,在对应的词典中进行查找。 下面以“我们在野生动物园玩”详细说明一下这几种匹配方法: 1、正向最大匹配法: 正向即从前往后取词,从7->1,每次减一个字,直到词典命中或剩下1个单字。 第1次:“我们在野生动物”,扫描7字词典,无

搜索引擎中文分词原理与实现

while (ts.i ncreme ntToke n()) { //取得下一个词 搜索引擎中文分词原理与实现 因为中文文本中,词和词之间不像英文一样存在边界, 所以中文分词是一个专业处理中 文信息的搜索引擎首先面对的问题,需要靠程序来切分出词。 一、LUCene 中的中文分词 LUCene 在中处理中文的常用方法有三种,以 皎死猎人的狗"为例说明之: 单 字:【咬】 【死】 【猎】 【人】 【的】 【狗】 二元覆盖:【咬死】 【死猎】 【猎人】 【人的】 【的狗】 分 词:【咬】 【死】 【猎人】 【的】 【狗】 LUCene 中的StandardTokenizer 采用单子分词方式, CJKTokenize 采用二元覆盖方式。 1、LUCene 切分原理 LUCene 中负责语言处理的部分在 org.apache.Iucene.analysis 包,其中, TokenStream 类 用来进行基本的分词工作, Analyzer 类是TokenStream 的包装类,负责整个解析工作,Analyzer 类接收整段文本,解析出有意义的词语。 通常不需要直接调用分词的处理类 analysis ,而是由LUCene 内存内部来调用,其中: (1) 在索引阶段,调用 addDocument (doc )时,LUCene 内部使用 Analyzer 来处理每 个需要 索引的列,具体如下图: 图1 LUCene 对索引文本的处理 In dexWriter in dex = new In dexWriter(i ndexDirectory, new CnAn alyzer(), //用于支持分词的分析 器 !in Creme ntal, In dexWriter.MaxFieldLe ngth.UNLIMITED); (2) 在搜索阶段,调用 QUeryParSer.parse (queryText )来解析查询串时, QUeryParSer 会调用Analyzer 来拆分查询字符串,但是对于通配符等查询不会调用 Analyzer 。 An alyzer an alyzer = new CnAn alyzer(); //支持中文的分词 QUeryParSer ParSer = new QUeryParSer(VerSiO n.L UCENE_CURRENT, "title", an alyzer); 因为在索引和搜索阶段都调用了分词过程,索引和搜索的切分处理要尽量一致,所以 分词效果改变后需要重建索引。 为了测试LUCene 的切分效果,下面是直接调用 Analysis 的例子: Analyzer analyzer = new CnAnalyzer(); // 创建一个中文分析器 TokenStream ts = analyzer.tokenStream("myfield", new StringReader(" 待切分文本 ")); //

中文分词入门之最大匹配法

中文分词入门之最大匹配法 发表于2009年01月12号由52nlp 中文分词在中文信息处理中是最最基础的,无论机器翻译亦或信息检索还是其他相关应用,如果涉及中文,都离不开中文分词,因此中文分词具有极高的地位。中文分词入门最简单应该是最大匹配法了,当年师兄布置给我的第一个学习任务就是实现最大匹配法的分词算法(正向、逆向)。记得当时对自己参考学习最有帮助的是北大詹卫东老师“中文信息处理基础”的课件和源程序,不过他实现的是mfc程序,词表存储在数据库里。自己实现时用纯c++实现,利用hash_map 存储词表。这里我介绍一下相关的知识和一个简单的程序示例,部分参考自詹老师的讲义。 正向最大匹配法算法如下所示: (注:以上最大匹配算法图来自于詹老师讲义) 逆向匹配法思想与正向一样,只是从右向左切分,这里举一个例子: 输入例句:S1=”计算语言学课程有意思” ; 定义:最大词长MaxLen = 5;S2= ” “;分隔符= “/”;

假设存在词表:…,计算语言学,课程,意思,…; 最大逆向匹配分词算法过程如下: (1)S2=”";S1不为空,从S1右边取出候选子串W=”课程有意思”; (2)查词表,W不在词表中,将W最左边一个字去掉,得到W=”程有意思”; (3)查词表,W不在词表中,将W最左边一个字去掉,得到W=”有意思”; (4)查词表,W不在词表中,将W最左边一个字去掉,得到W=”意思” (5)查词表,“意思”在词表中,将W加入到S2中,S2=” 意思/”,并将W从S1中去掉,此时S1=”计算语言学课程有”; (6)S1不为空,于是从S1左边取出候选子串W=”言学课程有”; (7)查词表,W不在词表中,将W最左边一个字去掉,得到W=”学课程有”; (8)查词表,W不在词表中,将W最左边一个字去掉,得到W=”课程有”; (9)查词表,W不在词表中,将W最左边一个字去掉,得到W=”程有”; (10)查词表,W不在词表中,将W最左边一个字去掉,得到W=”有”,这W是单字,将W 加入到S2中,S2=“ /有/意思”,并将W从S1中去掉,此时S1=”计算语言学课程”; (11)S1不为空,于是从S1左边取出候选子串W=”语言学课程”; (12)查词表,W不在词表中,将W最左边一个字去掉,得到W=”言学课程”; (13)查词表,W不在词表中,将W最左边一个字去掉,得到W=”学课程”; (14)查词表,W不在词表中,将W最左边一个字去掉,得到W=”课程”; (15)查词表,“意思”在词表中,将W加入到S2中,S2=“课程/ 有/ 意思/”,并将W从S1中去掉,此时S1=”计算语言学”; (16)S1不为空,于是从S1左边取出候选子串W=”计算语言学”; (17)查词表,“计算语言学”在词表中,将W加入到S2中,S2=“计算语言学/ 课程/ 有/ 意思/”,并将W从S1中去掉,此时S1=”"; (18)S1为空,输出S2作为分词结果,分词过程结束。 相应程序示例: 准备文件:建立一个词表文件wordlexicon,格式如下 计算语言学 课程 意思 输入文件:test,格式如下 计算语言学课程有意思 编译后执行如下:SegWord.exe test 输出分词结果文件:SegmentResult.txt 源代码如下: // Dictionary.h #include #include #include #include #include using namespace std; using namespace stdext;

相关文档