搜索
dict_build自动构建中文词库
认领
关注
0
粉丝
博文的 java 实现,可以自动抽取语料库中的词汇,可以作为自然语言处理的第一步,准备词典。成词条件互信息左右熵位置成词概率ngram 频率运行方法下
知识
简介
博文的 java 实现,可以自动抽取语料库中的词汇,可以作为自然语言处理的第一步,准备词典。成词条件互信息左右熵位置成词概率ngram 频率运行方法下载或者gradle distTar打包程序解压dict_build-x.x.x.tar解压之后,进入bin. 运行:./dict_build 你的数据...
更多
其它信息
地区
国产
开发语言
Java
开源组织
无
所属分类
程序开发、 中文分词库
授权协议
Apache
操作系统
跨平台
收录时间
2023-09-29
软件类型
开源软件
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
2023-09
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
PHPCWS中文分词库
PHPCWS 是一款开源的PHP中文分词扩展,目前仅支持Linux/Unix系统,该项目现在已改名为
Paoding中文分词库
庖丁中文分词库是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件。Paoding填补了国内中文分词方面开源组件的空白,致力于此并希翼成为互联网网站首
NLPIR中文分词库
NLPIR (自然语言处理与信息检索共享平台)是一个强大的中文分词库,
YahaPython 中文分词库
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。"Yaha"YoucancustomyourChineseWordSegmentationefficientlyb
snailsegPython 中文分词库
snailseg:ChineseWordsSegmentLibraryinPython简单的中文分词库在线分词效果展示 https://snailsegdemo.appspot.com/Usage将s
NLPIR中文分词库
NLPIR(自然语言处理与信息检索共享平台)是一个强大的中文分词库,
PHPCWS中文分词库
PHPCWS是一款开源的PHP中文分词扩展,目前仅支持Linux/Unix系统,该项目现在已改名为HTTPCWS,此项目不再继续维护。PHPCWS先使用“ICTCLAS3.0共享版中文分词算法”的AP
IKAnalyzer中文分词库
IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体
ICTCLAS4JLucene中文分词库
ictclas4j中文分词系统是sinboy在中科院张华平和刘群老师的研制的FreeICTCLAS的
YahaPython 中文分词库
"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha"