搜索
下载APP
smallseg中文分词工具包
认领
关注
0
粉丝
smallseg -- 开源的,基于DFA的轻量级的中文分词工具包 特点:可自定义词典、切割后返回登录词列表和未登录词列表、有一定的新词识别能力。 Python 示例代码: s3 = file("text.txt").read()words = [x.rstrip() for x in file("
知识
简介
smallseg -- 开源的,基于DFA的轻量级的中文分词工具包 特点:可自定义词典、切割后返回登录词列表和未登录词列表、有一定的新词识别能力。 Python 示例代码: s3 = file("text.txt").read()words = [x.rstrip() for x in file("...
更多
其它信息
授权协议
未知
开发语言
Java Python
操作系统
跨平台
软件类型
开源软件
所属分类
程序开发、 中文分词库
开源组织
无
地区
国产
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
09-29
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
pkuseg中文分词工具包
pkuseg-python:一个高准确度的中文分词工具包pkuseg-python简单易用,支持多领域分词,在不同领域的数据上都大幅提高了分词的准确率。主要亮点pkuseg是由北京大学语言计算与机器学
pkuseg中文分词工具包
pkuseg-python:一个高准确度的中文分词工具包pkuseg-python 简单易用,支持多
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开
ansj_segAnsj中文分词
Ansj中文分词使用帮助开发文档:3.x版本及之前,5.x版本及之后摘要这是一个基于n-Gram+CRF+HMM的中文分词的java实现。分词速度达到每秒钟大约200万字左右(macair下测试),准
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化内存中中文分词每秒钟大约100万字(速度上已经
SegoGo 中文分词
词典用双数组trie(Double-Array Trie)实现, 分词器算法为基于词频的最短路径加动
genius中文分词
GeniusGenius是一个开源的python中文分词组件,采用CRF(ConditionalRandomField)条件随机场算法。Feature支持python2.x、python3.x以及py
scsegPython中文分词
scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词
scsegPython中文分词
scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词典支持单位合并支持汉字数字识别Installpipinstallscseg通过importscseg
genius中文分词
GeniusGenius是一个开源的python中文分词组件,采用 CRF(Conditional