MFSOU中文分词PHP扩展联合创作 · 2023-09-29 05:22一个PHP函数实现中文分词。使分词更容易,使用如下图: mfsou PHP扩展现有两个函数:中文分词函数nnabc_fenci();IP地址查询函数nnabc_ipaddr()。 中文分词使用一个函数直接分词,使中文分词更容易更简单;PHP扩展级的IP地址查询函数,查询IP地址速度更快。浏览 2点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报 评论图片表情视频评价全部评论推荐 robbePHP 中文分词扩展该项目已经被合并到了项目:http://www.oschina.net/p/frisorobbe是建robbePHP 中文分词扩展0robbePHP 中文分词扩展该项目已经被合并到了项目:http://www.oschina.net/p/frisorobbe是建立在friso中文分词组建上的一个高性能php中文分词扩展,同时支持对UTF-8/GBK编码的切分。robbePHP 中文分词扩展0genius中文分词GeniusGenius是一个开源的python中文分词组件,采用CRF(ConditionalRandomField)条件随机场算法。Feature支持python2.x、python3.x以及pygenius中文分词0scsegPython中文分词scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词scsegPython中文分词0Ansj中文分词Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开Ansj中文分词0ansj_segAnsj中文分词Ansj中文分词使用帮助开发文档:3.x版本及之前,5.x版本及之后摘要这是一个基于n-Gram+CRF+HMM的中文分词的java实现。分词速度达到每秒钟大约200万字左右(macair下测试),准ansj_segAnsj中文分词0Ansj中文分词Ansj中文分词这是一个ictclas的java实现.基本上重写了所有的数据结构和算法.词典是用的开源版的ictclas所提供的.并且进行了部分的人工优化内存中中文分词每秒钟大约100万字(速度上已经Ansj中文分词0SegoGo 中文分词词典用双数组trie(Double-Array Trie)实现, 分词器算法为基于词频的最短路径加动SegoGo 中文分词0scsegPython中文分词scseg中文分词,是基于mmseg的简单分词组件Feature支持pinyin分词支持用户自定义词典支持单位合并支持汉字数字识别Installpipinstallscseg通过importscsegscsegPython中文分词0genius中文分词GeniusGenius是一个开源的python中文分词组件,采用 CRF(Conditional genius中文分词0点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报