NLPIR中文分词库联合创作 · 2023-09-29 05:12NLPIR (自然语言处理与信息检索共享平台)是一个强大的中文分词库,浏览 9点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报 评论图片表情视频评价全部评论推荐 PHPCWS中文分词库PHPCWS 是一款开源的PHP中文分词扩展,目前仅支持Linux/Unix系统,该项目现在已改名为Paoding中文分词库庖丁中文分词库是一个使用Java开发的,可结合到Lucene应用中的,为互联网、企业内部网使用的中文搜索引擎分词组件。Paoding填补了国内中文分词方面开源组件的空白,致力于此并希翼成为互联网网站首YahaPython 中文分词库"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。"Yaha"YoucancustomyourChineseWordSegmentationefficientlybsnailsegPython 中文分词库snailseg:ChineseWordsSegmentLibraryinPython简单的中文分词库在线分词效果展示 https://snailsegdemo.appspot.com/Usage将sPHPCWS中文分词库PHPCWS是一款开源的PHP中文分词扩展,目前仅支持Linux/Unix系统,该项目现在已改名为HTTPCWS,此项目不再继续维护。PHPCWS先使用“ICTCLAS3.0共享版中文分词算法”的APIKAnalyzer中文分词库IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAnalyzer已经推出了4个大版本。最初,它是以开源项目Luence为应用主体ICTCLAS4JLucene中文分词库ictclas4j中文分词系统是sinboy在中科院张华平和刘群老师的研制的FreeICTCLAS的YahaPython 中文分词库"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha"IKAnalyzer中文分词库IK Analyzer 是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12snailsegPython 中文分词库snailseg:Chinese Words Segment Library in Python 简点赞 评论 收藏 分享 手机扫一扫分享 编辑 分享 举报