Transformers TF-PT用于 TF 2.0 和 PyTorch 的自然语言处理框架
Transformers(以往称为 pytorch-transformers 和 pytorch-pretrained-bert)是用于 TensorFlow 2.0 和 PyTorch 的自然语言处理框架。它提供了用于自然语言理解(NLU,Natural Language Understanding)和自然语言生成(NLG,Natural Language Generation)的最先进的通用架构,包括 BERT、GPT-2、RoBERTa、XLM、DistilBert 与 XLNet 等,具有超过 100 种语言的 32 种以上经过预训练的模型,以及 TensorFlow 2.0 和 PyTorch 之间的深度互操作性。
特性:
- 与 pytorch-transformers 一样易用
- 像 Keras 一样强大与简洁
- 处理 NLU 和 NLG 任务时性能高
- 教育者和从业者的进入门槛低
- 低计算成本,研究人员可以共享训练模型,不必再训练,内置 8 种架构,包含 30 多种预训练的模型,其中一些采用 100 多种语言
- 3 行代码即可训练最先进的模型
- TensorFlow 2.0 和 PyTorch 模型之间的深层互操作性,可以随意在两个框架之间移动单个模型
评论
Hugging Face Transformers用于 Pytorch/TensorFlow/JAX 的自然语言处理
Transformers 是为 Jax、PyTorch 和 TensorFlow 打造的先进的自然语
Hugging Face Transformers用于 Pytorch/TensorFlow/JAX 的自然语言处理
0
Hugging Face Transformers用于 Pytorch/TensorFlow/JAX 的自然语言处理
Transformers是为Jax、PyTorch和TensorFlow打造的先进的自然语言处理。Transformers提供了数以千计的预训练模型,支持100多种语言的文本分类、信息抽取、问答、摘要
Hugging Face Transformers用于 Pytorch/TensorFlow/JAX 的自然语言处理
0
ClearTKNLP 自然语言处理框架
ClearTK提供一个Java的用来开发基于统计的NLP自然语言处理框架。基于ApacheUIMA构建,由科罗拉多大学的计算语言与教育研究中心开发。示例代码:FeatureExtractor1<
ClearTKNLP 自然语言处理框架
0
GLM用于自然语言理解和生成的通用预训练框架
GLM(GeneralLanguageModel) 是清华大学推出的一种使用自回归填空目标进行预训练的通用语言模型,可以针对各种自然语言理解和生成任务进行微调。GLM通过添加2D位置编码并允许以任意顺
GLM用于自然语言理解和生成的通用预训练框架
0