搜索
ansj_segAnsj中文分词
认领
关注
0
粉丝
Ansj中文分词使用帮助开发文档:3.x版本及之前,5.x版本及之后摘要这是一个基于n-Gram+CRF+HMM的中文分词的java实现。分词速度达到
知识
简介
Ansj中文分词使用帮助开发文档:3.x版本及之前,5.x版本及之后摘要这是一个基于n-Gram+CRF+HMM的中文分词的java实现。分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上。目前实现了中文分词、中文姓名识别、用户自定义词典、关键字提取、自动摘要、关键...
更多
其它信息
地区
国产
开发语言
Python
开源组织
无
所属分类
程序开发、 中文分词库
授权协议
Apache
操作系统
跨平台
收录时间
2023-09-29
软件类型
开源软件
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
2023-09
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
genius中文分词
GeniusGenius是一个开源的python中文分词组件,采用CRF(ConditionalRandomField)条件随机场算法。Feature支持python2.x、python3.x以及py
genius中文分词
0
scsegPython中文分词
scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词
scsegPython中文分词
0
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化内存中中文分词每秒钟大约100万字(速度上已经
Ansj中文分词
0
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开
Ansj中文分词
0
SegoGo 中文分词
词典用双数组trie(Double-Array Trie)实现, 分词器算法为基于词频的最短路径加动
SegoGo 中文分词
0
scsegPython中文分词
scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词典支持单位合并支持汉字数字识别Installpipinstallscseg通过importscseg
scsegPython中文分词
0
genius中文分词
GeniusGenius是一个开源的python中文分词组件,采用 CRF(Conditional
genius中文分词
0
SegoGo 中文分词
词典用双数组trie(Double-ArrayTrie)实现, 分词器算法为基于词频的最短路径加动态规划。支持普通和搜索引擎两种分词模式,支持用户词典、词性标注,可运行JSONRPC服务。分词速度单线
SegoGo 中文分词
0
elasticsearch-jieba-pluginJieba 中文分词插件
elasticsearch-jieba-plugin 是 Jieba 中文分词插件。试用 Elast
elasticsearch-jieba-pluginJieba 中文分词插件
0
LibMMSeg中文分词软件包
LibMMSeg简介LibMMSeg是Coreseek.com为Sphinx全文搜索引擎设计的中文分词软件包,其在GPL协议下发行的中文分词法,采用Chih-HaoTsai的MMSEG算法。MMSEG
LibMMSeg中文分词软件包
0