LangChain:安装与环境配置

Python之王

共 2207字,需浏览 5分钟

 ·

2024-04-19 08:32

使用以下命令安装 LangChain:

pip install langchain

或者:

conda install langchain -c conda-forge

环境设定

使用LangChain通常需要与一个或多个模型提供程序、数据存储、 API 等集成。对于这个例子,我们将使用OpenAI的API,所以我们首先需要安装OpenAI的SDK:

pip install openai

然后我们需要在终端设置环境变量:

export OPENAI_API_KEY="..."

或者,我们也可以在Jupyter Notebook或Python脚本内完成:

import os
os.environ["OPENAI_API_KEY"] = "..."

如果想动态设置API密钥,我们还可以在初始化OpenAI类时使用openai_api_key参数:

from langchain.llms import OpenAI
llm = OpenAI(openai_api_key="OPENAI_API_KEY")

构建语言模型应用程序: LLM

现在我们已经安装了LangChain并设置了我们的环境,我们可以开始构建我们的语言模型应用程序了。LangChain提供了许多可用于构建语言模型应用程序的模块。模块可以组合起来创建更复杂的应用程序,或者单独用于简单的应用程序。

LLM:从语言模型中获取预测

LangChain最基本的构建块是对某些输入调用LLM。假设我们正在构建一个基于公司产品生成公司名称的服务。为此,我们首先需要导入LLM包装器:

from langchain.llms import OpenAI

LLM初始化和调用

然后我们可以用任何参数初始化包装器。在这个例子中,我们可能希望输出更加随机,所以我们将以温度(Temperature)为0.9来初始化它。

llm = OpenAI(temperature=0.9)

我们现在可以根据一些输入调用它:

text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text))

输出:

Feetful of Fun

关于如何在LangChain中使用LLM,《》系列的后续文章会有详细的阐述。

提示模板(PromptTemplate): 管理 LLM 的提示

调用LLM是第一步,但这仅仅是个开始。通常在应用程序中使用LLM时,不会将用户输入直接发送到LLM。相反,我们更可能的是接受用户输入并构造一个提示符,然后将其发送给LLM。例如,在前一个示例中,我们传入的文本被硬编码为询问一家生产彩色袜子的公司的名称。在这个虚构的服务中,我们希望只获取描述公司业务的用户输入,然后用这些信息格式化提示符。如果使用LangChain,这个事情将会变得很简单。首先让我们定义提示模板:

from langchain.prompts import PromptTemplate
 
prompt = PromptTemplate(
    input_variables=["product"],
    template="What is a good name for a company that makes {product}?",
)

我们可以调用.format方法来格式化它。

print(prompt.format(product="colorful socks"))

输出:

What is a good name for a company that makes colorful socks?

参考文献:

[1] LangChain 🦜️🔗 中文网,跟着LangChain一起学LLM/GPT开发:https://www.langchain.com.cn/

[2] LangChain中文网 - LangChain 是一个用于开发由语言模型驱动的应用程序的框架:http://www.cnlangchain.com/


浏览 35
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报