搜索
finalseg基于HMM模型的中文分词
认领
关注
0
粉丝
finalseg -> Chinese Words Segment Library in Python based on HMM Model 基
知识
简介
finalseg -> Chinese Words Segment Library in Python based on HMM Model 基于HMM模型的中文分词用法将finalseg目录放置于当前目录或者site-packages目录import finalseg代码示例import f...
更多
其它信息
地区
国产
开发语言
Python
开源组织
无
所属分类
程序开发、 中文分词库
授权协议
未知
操作系统
跨平台
收录时间
2023-09-29
软件类型
开源软件
适用人群
未知
时光轴
里程碑
1
LOG
0
2023
2023-09
轻识收录
打卡
我要打卡
我要打卡
评价
0.0
(满分 10 分)
0 个评分
什么是点评分
图片
表情
视频
评价
全部评价( 0)
推荐率 100%
推荐
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开
ansj_segAnsj中文分词
Ansj中文分词使用帮助开发文档:3.x版本及之前,5.x版本及之后摘要这是一个基于n-Gram+CRF+HMM的中文分词的java实现。分词速度达到每秒钟大约200万字左右(macair下测试),准
Ansj中文分词
Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化内存中中文分词每秒钟大约100万字(速度上已经
SegoGo 中文分词
词典用双数组trie(Double-Array Trie)实现, 分词器算法为基于词频的最短路径加动
genius中文分词
GeniusGenius是一个开源的python中文分词组件,采用CRF(ConditionalRandomField)条件随机场算法。Feature支持python2.x、python3.x以及py
scsegPython中文分词
scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词
scsegPython中文分词
scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词典支持单位合并支持汉字数字识别Installpipinstallscseg通过importscseg
genius中文分词
GeniusGenius是一个开源的python中文分词组件,采用 CRF(Conditional
SegoGo 中文分词
词典用双数组trie(Double-ArrayTrie)实现, 分词器算法为基于词频的最短路径加动态规划。支持普通和搜索引擎两种分词模式,支持用户词典、词性标注,可运行JSONRPC服务。分词速度单线
LaWGPT基于中文法律知识的大语言模型
LaWGPT是一系列基于中文法律知识的开源大语言模型。该系列模型在通用中文基座模型(如Chinese-LLaMA、ChatGLM等)的基础上扩充法律领域专有词表、大规模中文法律语料预训练,增强了大模型