LangChain:安装与环境配置
共 2207字,需浏览 5分钟
·
2024-04-19 08:32
使用以下命令安装 LangChain:
pip install langchain
或者:
conda install langchain -c conda-forge
环境设定
使用LangChain通常需要与一个或多个模型提供程序、数据存储、 API 等集成。对于这个例子,我们将使用OpenAI的API,所以我们首先需要安装OpenAI的SDK:
pip install openai
然后我们需要在终端设置环境变量:
export OPENAI_API_KEY="..."
或者,我们也可以在Jupyter Notebook或Python脚本内完成:
import os
os.environ["OPENAI_API_KEY"] = "..."
如果想动态设置API密钥,我们还可以在初始化OpenAI类时使用openai_api_key
参数:
from langchain.llms import OpenAI
llm = OpenAI(openai_api_key="OPENAI_API_KEY")
构建语言模型应用程序: LLM
现在我们已经安装了LangChain并设置了我们的环境,我们可以开始构建我们的语言模型应用程序了。LangChain提供了许多可用于构建语言模型应用程序的模块。模块可以组合起来创建更复杂的应用程序,或者单独用于简单的应用程序。
LLM:从语言模型中获取预测
LangChain最基本的构建块是对某些输入调用LLM。假设我们正在构建一个基于公司产品生成公司名称的服务。为此,我们首先需要导入LLM包装器:
from langchain.llms import OpenAI
LLM初始化和调用
然后我们可以用任何参数初始化包装器。在这个例子中,我们可能希望输出更加随机,所以我们将以温度(Temperature)为0.9来初始化它。
llm = OpenAI(temperature=0.9)
我们现在可以根据一些输入调用它:
text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text))
输出:
Feetful of Fun
关于如何在LangChain中使用LLM,《》系列的后续文章会有详细的阐述。
提示模板(PromptTemplate): 管理 LLM 的提示
调用LLM是第一步,但这仅仅是个开始。通常在应用程序中使用LLM时,不会将用户输入直接发送到LLM。相反,我们更可能的是接受用户输入并构造一个提示符,然后将其发送给LLM。例如,在前一个示例中,我们传入的文本被硬编码为询问一家生产彩色袜子的公司的名称。在这个虚构的服务中,我们希望只获取描述公司业务的用户输入,然后用这些信息格式化提示符。如果使用LangChain,这个事情将会变得很简单。首先让我们定义提示模板:
from langchain.prompts import PromptTemplate
prompt = PromptTemplate(
input_variables=["product"],
template="What is a good name for a company that makes {product}?",
)
我们可以调用.format
方法来格式化它。
print(prompt.format(product="colorful socks"))
输出:
What is a good name for a company that makes colorful socks?
参考文献:
[1] LangChain 🦜️🔗 中文网,跟着LangChain一起学LLM/GPT开发:https://www.langchain.com.cn/
[2] LangChain中文网 - LangChain 是一个用于开发由语言模型驱动的应用程序的框架:http://www.cnlangchain.com/