跳过导航链接
A C D E G H I L M N O P R S T U 

A

addWords(Collection<String>) - 类 中的方法org.wltea.analyzer.dic.Dictionary
批量加载新词条
append(Lexeme, int) - 类 中的方法org.wltea.analyzer.core.Lexeme
合并两个相邻的词元

C

compareTo(Lexeme) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
Configuration - org.wltea.analyzer.cfg中的接口
配置管理类接口
create(String, String, boolean) - 类 中的静态方法org.wltea.analyzer.query.SWMCQueryBuilder
生成SWMCQuery
createComponents(String, Reader) - 类 中的方法org.wltea.analyzer.lucene.IKAnalyzer
重载Analyzer接口,构造分词组件

D

DefaultConfig - org.wltea.analyzer.cfg中的类
Configuration 默认实现 2012-5-8
Dictionary - org.wltea.analyzer.dic中的类
词典管理类,单子模式
disableWords(Collection<String>) - 类 中的方法org.wltea.analyzer.dic.Dictionary
批量移除(屏蔽)词条

E

end() - 类 中的方法org.wltea.analyzer.lucene.IKTokenizer
 
equals(Object) - 类 中的方法org.wltea.analyzer.core.Lexeme
 

G

getBegin() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
getBegin() - 类 中的方法org.wltea.analyzer.dic.Hit
 
getBeginPosition() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元在文本中的起始位置
getEnd() - 类 中的方法org.wltea.analyzer.dic.Hit
 
getEndPosition() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元在文本中的结束位置
getExtDictionarys() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取扩展字典配置路径
getExtDictionarys() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取扩展字典配置路径
getExtStopWordDictionarys() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取扩展停止词典配置路径
getExtStopWordDictionarys() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取扩展停止词典配置路径
getInstance() - 类 中的静态方法org.wltea.analyzer.cfg.DefaultConfig
返回单例
getLength() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元的字符长度
getLexemeText() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元的文本内容
getLexemeType() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元类型
getLexemeTypeString() - 类 中的方法org.wltea.analyzer.core.Lexeme
获取词元类型标示字符串
getMainDictionary() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取主词典路径
getMainDictionary() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取主词典路径
getMatchedDictSegment() - 类 中的方法org.wltea.analyzer.dic.Hit
 
getOffset() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
getQuantifierDicionary() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
获取量词词典路径
getQuantifierDicionary() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
获取量词词典路径
getSingleton() - 类 中的静态方法org.wltea.analyzer.dic.Dictionary
获取词典单子实例

H

hashCode() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
Hit - org.wltea.analyzer.dic中的类
表示一次词典匹配的命中
Hit() - 类 的构造器org.wltea.analyzer.dic.Hit
 

I

IKAnalyzer - org.wltea.analyzer.lucene中的类
IK分词器,Lucene Analyzer接口实现 兼容Lucene 4.0版本
IKAnalyzer() - 类 的构造器org.wltea.analyzer.lucene.IKAnalyzer
IK分词器Lucene Analyzer接口实现类 默认细粒度切分算法
IKAnalyzer(boolean) - 类 的构造器org.wltea.analyzer.lucene.IKAnalyzer
IK分词器Lucene Analyzer接口实现类
IKAnalzyerDemo - org.wltea.analyzer.sample中的类
使用IKAnalyzer进行分词的演示 2012-10-22
IKAnalzyerDemo() - 类 的构造器org.wltea.analyzer.sample.IKAnalzyerDemo
 
IKQueryExpressionParser - org.wltea.analyzer.query中的类
IK简易查询表达式解析 结合SWMCQuery算法 表达式例子 : (id='1231231' && title:'monkey') || (content:'你好吗' || ulr='www.ik.com') - name:'helloword'
IKQueryExpressionParser() - 类 的构造器org.wltea.analyzer.query.IKQueryExpressionParser
 
IKSegmenter - org.wltea.analyzer.core中的类
IK分词器主类
IKSegmenter(Reader, boolean) - 类 的构造器org.wltea.analyzer.core.IKSegmenter
IK分词器构造函数
IKSegmenter(Reader, Configuration) - 类 的构造器org.wltea.analyzer.core.IKSegmenter
IK分词器构造函数
IKTokenizer - org.wltea.analyzer.lucene中的类
IK分词器 Lucene Tokenizer适配器类 兼容Lucene 4.0版本
IKTokenizer(Reader, boolean) - 类 的构造器org.wltea.analyzer.lucene.IKTokenizer
Lucene 4.0 Tokenizer适配器类构造函数
incrementToken() - 类 中的方法org.wltea.analyzer.lucene.IKTokenizer
 
initial(Configuration) - 类 中的静态方法org.wltea.analyzer.dic.Dictionary
词典初始化 由于IK Analyzer的词典采用Dictionary类的静态方法进行词典初始化 只有当Dictionary类被实际调用时,才会开始载入词典, 这将延长首次分词操作的时间 该方法提供了一个在应用加载阶段就初始化字典的手段
isMatch() - 类 中的方法org.wltea.analyzer.dic.Hit
判断是否完全匹配
isPrefix() - 类 中的方法org.wltea.analyzer.dic.Hit
判断是否是词的前缀
isStopWord(char[], int, int) - 类 中的方法org.wltea.analyzer.dic.Dictionary
判断是否是停止词
isUnmatch() - 类 中的方法org.wltea.analyzer.dic.Hit
判断是否是不匹配

L

Lexeme - org.wltea.analyzer.core中的类
IK词元对象
Lexeme(int, int, int, int) - 类 的构造器org.wltea.analyzer.core.Lexeme
 
LuceneIndexAndSearchDemo - org.wltea.analyzer.sample中的类
使用IKAnalyzer进行Lucene索引和查询的演示 2012-3-2 以下是结合Lucene4.0 API的写法
LuceneIndexAndSearchDemo() - 类 的构造器org.wltea.analyzer.sample.LuceneIndexAndSearchDemo
 

M

main(String[]) - 类 中的静态方法org.wltea.analyzer.query.IKQueryExpressionParser
 
main(String[]) - 类 中的静态方法org.wltea.analyzer.sample.IKAnalzyerDemo
 
main(String[]) - 类 中的静态方法org.wltea.analyzer.sample.LuceneIndexAndSearchDemo
模拟: 创建一个单条记录的索引,并对其进行搜索
matchInMainDict(char[]) - 类 中的方法org.wltea.analyzer.dic.Dictionary
检索匹配主词典
matchInMainDict(char[], int, int) - 类 中的方法org.wltea.analyzer.dic.Dictionary
检索匹配主词典
matchInQuantifierDict(char[], int, int) - 类 中的方法org.wltea.analyzer.dic.Dictionary
检索匹配量词词典
matchWithHit(char[], int, Hit) - 类 中的方法org.wltea.analyzer.dic.Dictionary
从已匹配的Hit中直接取出DictSegment,继续向下匹配

N

next() - 类 中的方法org.wltea.analyzer.core.IKSegmenter
分词,获取下一个词元

O

org.wltea.analyzer.cfg - 程序包 org.wltea.analyzer.cfg
 
org.wltea.analyzer.core - 程序包 org.wltea.analyzer.core
 
org.wltea.analyzer.dic - 程序包 org.wltea.analyzer.dic
 
org.wltea.analyzer.lucene - 程序包 org.wltea.analyzer.lucene
 
org.wltea.analyzer.query - 程序包 org.wltea.analyzer.query
 
org.wltea.analyzer.sample - 程序包 org.wltea.analyzer.sample
 

P

parseExp(String, boolean) - 类 中的方法org.wltea.analyzer.query.IKQueryExpressionParser
解析查询表达式,生成Lucene Query对象

R

reset(Reader) - 类 中的方法org.wltea.analyzer.core.IKSegmenter
重置分词器到初始状态
reset() - 类 中的方法org.wltea.analyzer.lucene.IKTokenizer
 

S

setBegin(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setBegin(int) - 类 中的方法org.wltea.analyzer.dic.Hit
 
setEnd(int) - 类 中的方法org.wltea.analyzer.dic.Hit
 
setLength(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setLexemeText(String) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setLexemeType(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setMatch() - 类 中的方法org.wltea.analyzer.dic.Hit
 
setMatchedDictSegment(DictSegment) - 类 中的方法org.wltea.analyzer.dic.Hit
 
setOffset(int) - 类 中的方法org.wltea.analyzer.core.Lexeme
 
setPrefix() - 类 中的方法org.wltea.analyzer.dic.Hit
 
setUnmatch() - 类 中的方法org.wltea.analyzer.dic.Hit
 
setUseSmart(boolean) - 接口 中的方法org.wltea.analyzer.cfg.Configuration
设置useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
setUseSmart(boolean) - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
设置useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
setUseSmart(boolean) - 类 中的方法org.wltea.analyzer.lucene.IKAnalyzer
 
SWMCQueryBuilder - org.wltea.analyzer.query中的类
Single Word Multi Char Query Builder IK分词算法专用
SWMCQueryBuilder() - 类 的构造器org.wltea.analyzer.query.SWMCQueryBuilder
 

T

toString() - 类 中的方法org.wltea.analyzer.core.Lexeme
 
TYPE_ARABIC - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CNCHAR - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CNUM - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CNWORD - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_COUNT - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_CQUAN - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_ENGLISH - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_LETTER - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_OTHER_CJK - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 
TYPE_UNKNOWN - 类 中的静态变量org.wltea.analyzer.core.Lexeme
 

U

useSmart() - 接口 中的方法org.wltea.analyzer.cfg.Configuration
返回useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
useSmart() - 类 中的方法org.wltea.analyzer.cfg.DefaultConfig
返回useSmart标志位 useSmart =true ,分词器使用智能切分策略, =false则使用细粒度切分
useSmart() - 类 中的方法org.wltea.analyzer.lucene.IKAnalyzer
 
A C D E G H I L M N O P R S T U 
跳过导航链接

Copyright © 2016. All rights reserved.