当前位置:CRM > 互联网资讯 > Java 程序员从零开始学 LangChain —模型组件

Java 程序员从零开始学 LangChain —模型组件

2023-06-02 12:00:48互联网资讯
2023-06-02,

前面的文章了不起给大家介绍了 LangChain 的一些基本知识,没看过的小伙伴可以点击这里去看下,今天了不起给大家介绍一下 LangChain 的第一个很重要的组件模型 Model。

注意这里说的模型是指 LangChain 的模型组件,而不是指类似于 OpenAI 的语言模型,之所以 LangChain 会出现模型组件就是因为业内的语言模型太多了,除了 OpenAI 这家公司的语言模型之外,还很有很多其他家的。

LangChain 的模型组件有三种类型,分别是 LLM 大语言模型,Chat Model 聊天模型和文本嵌入模型 Text Embedding Models。

LLM 大语言模型

LLM 作为最基本的一种模型组件,输入和输出都只支持字符串,在大部分的场景下就可以满足我们的需求了。我们可以在 Colab([https://colab.research.google.com) 上面直接写 Python 代码

举个栗子

下面是一个 case,先安装依赖,再执行下面的代码。

pip install openai pip install langchain import os # 配置OpenAI 的 API KEY os.environ["OPENAI_API_KEY"] ="sk-xxx" # 从 LangChain 中导入 OpenAI 的模型 from langchain.llms import OpenAI # 三个参数分别代表OpenAI 的模型名称,执行的次数和随机性,数值越大越发散 llm = OpenAI(model_name="text-davinci-003", n=2, temperature=0.3) llm.generate(["给我讲一个故事", "给我讲一个笑话"])

运行的结果如下

Chat Model 聊天模型

Chat Model 是基于 LLM 模型的,只不过 Chat Model 相对于 LLM 模型组件间输入和输出更加结构化,输入和输出的参数的类型都是 Chat Model,而不是简单的字符串。常用的 Chat Model 类型有如下几种

AIMessage:用来保存 LLM 的响应,以便在下次请求时把这些信息传回给 LLM。 HumanMessage:发送给 LLMs 的提示信息,比如“实现一个快速排序方法” SystemMessage:设置 LLM 模型的行为方式和目标。你可以在这里给出具体的指示,比如“作为一个代码专家”,或者“返回 json 格式”。 ChatMessage:ChatMessage 可以接收任意形式的值,但是在大多数时间,我们应该使用上面的三种类型。 举个栗子 from langchain.chat_models import ChatOpenAI from langchain.schema import ( AIMessage, HumanMessage, SystemMessage ) chat = ChatOpenAI(temperature=0) messages = [ SystemMessage(cnotallow="返回的数据markdown 语法进行展示,代码使用代码块包裹"), HumanMessage(cnotallow="用 Java 实现一个二分查找算法") ] print(chat(messages))

生成的内容字符串形式如下

cnotallow='二分查找算法,也称折半查找算法,是一种在有序数组中查找特定元素的搜索算法。该算法的时间复杂度为 O(log n)。\n\n以下是 Java 实现二分查找算法的代码:\n\njava\npublic class BinarySearch {\n public static int binarySearch(int[] arr, int target) {\n int left = 0;\n int right = arr.length - 1;\n while (left <= right) {\n int mid = (left + right) / 2;\n if (arr[mid] == target) {\n return mid;\n } else if (arr[mid] < target) {\n left = mid + 1;\n } else {\n right = mid - 1;\n }\n }\n return -1;\n }\n\n public static void main(String[] args) {\n int[] arr = {1, 3, 5, 7, 9};\n int target = 5;\n int index = binarySearch(arr, target);\n if (index != -1) {\n System.out.println("目标元素 " + target + " 在数组中的下标为 " + index);\n } else {\n System.out.println("目标元素 " + target + " 不在数组中");\n }\n }\n}\n\n\n在上述代码中,binarySearch 方法接收一个有序数组和一个目标元素,返回目标元素在数组中的下标,如果目标元素不在数组中,则返回 -1。\n\n在 binarySearch 方法中,使用两个指针 left 和 right 分别指向数组的左右两端,然后在一个 while 循环中不断缩小查找范围,直到找到目标元素或者查找范围为空。在每次循环中,计算中间位置 mid,然后将目标元素与中间位置的元素进行比较,如果相等,则返回中间位置的下标;如果目标元素比中间位置的元素大,则将左指针移到中间位置的右边;如果目标元素比中间位置的元素小,则将右指针移到中间位置的左边。' additional_kwargs={} example=False

将 content 里面的内容提取出来,用 markdown 语法展示出来是这样的

使用这个模型组件,可以进行一些角色的预设,然后来定制个性化的问答。

Prompts template from langchain.chat_models import ChatOpenAI from langchain.prompts import ( ChatPromptTemplate, PromptTemplate, SystemMessagePromptTemplate, AIMessagePromptTemplate, HumanMessagePromptTemplate, ) from langchain.schema import ( AIMessage, HumanMessage, SystemMessage ) system_template="你是一个把{input_language}翻译成{output_language}的助手" system_message_prompt = SystemMessagePromptTemplate.from_template(system_template) human_template="{text}" human_message_prompt = HumanMessagePromptTemplate.from_template(human_template) chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt]) messages = chat_prompt.format_prompt(input_language="英语", output_language="汉语", text="I love programming.") print(messages) chat = ChatOpenAI(temperature=0) print(chat(messages.to_messages()))

output

messages=[SystemMessage(cnotallow='你是一个把英语翻译成汉语的助手', additional_kwargs={}), HumanMessage(cnotallow='I love programming.', additional_kwargs={}, example=False)] cnotallow='我喜欢编程。' additional_kwargs={} example=False

文本嵌入模型 Text Embedding Models

文本嵌入模型组件相对比较难理解,这个组件接收的是一个字符串,返回的是一个浮点数的列表。在 NLP 领域中 Embedding 是一个很常用的技术,Embedding 是将高维特征压缩成低维特征的一种方法,常用于自然语言处理任务中,如文本分类、机器翻译、推荐系统等。它将单词、短语、句子等文本中的离散数据映射到实数域上的向量,这些向量可以被神经网络更好地处理和学习。通过 Embedding,文本数据可以被更好地表示和理解,提高了模型的表现力和泛化能力。

举个栗子 from langchain.embeddings import OpenAIEmbeddings embeddings = OpenAIEmbeddings() text = "hello world" query_result = embeddings.embed_query(text) doc_result = embeddings.embed_documents([text]) print(query_result) print(doc_result)

output

[-0.01491016335785389, 0.0013780705630779266, -0.018519161269068718, -0.031111136078834534, -0.02430146001279354, 0.007488010451197624,0.011340680532157421, 此处省略 .......

总结

今天给大家介绍了一下 LangChain 的模型组件,有了模型组件我们就可以更加方便的跟各种 LLMs 进行交互了。

参考资料

官方文档:https://python.langchain.com/en/latest/modules/models.html

PS:本文来源:Java 程序员从零开始学 LangChain —模型组件,LLM​,大语言,模型,人工智能,

版权声明:我们致力于保护作者版权,注重分享,本文内容及图片(只作为美观性配图使用)由CRM小助手整理收集与网络(无任何非法侵犯第三方意图),仅供学习参考交流使用,不代表CRM论坛观点。如有侵权,请联系我们,我们将及时删除处理。

CRM论坛投稿:投稿地址


  CRM论坛(CRMBBS.COM)始办于2019年,是致力于CRM实施方案、免费CRM软件、SCRM系统、客户管理系统的垂直内容社区网站,CRM论坛持续专注于CRM领域,在不断深化理解CRM系统的同时,进一步利用新型互联网技术,为用户实现企业、客户、合作伙伴与产品之间的无缝连接与交互。

CRM系统