跳转到主要内容

LLM

我最近遇到了EmbeddChain,这是一个使用LLM构建聊天机器人的框架,可以与各种类型的数据交互,如YouTube视频、PDF、网页、docx文件、文档和Notion笔记。与LangChain或Llama Index等替代品相比,它的与众不同之处在于其令人难以置信的用户友好界面。

接下来,我将概述EmbedChain的一些实际应用。但在进入之前,您需要安装模块:

pip install embedchain

用例1:与你可以使用的维基百科内容对话

EmbeddChain与维基百科文章进行互动对话。你所需要做的就是配置你的OpenAI API密钥,指定你想要与之互动的文章,并开始提出你的问题。在幕后,EmbedChain处理嵌入和索引的创建,同时管理整个检索增强生成(RAG)系统。

以下是开始使用的代码:

import os
from mytoken import apikey

from embedchain import App

os.environ["OPENAI_API_KEY"] = apikey

wikipedia_bot = App()

# Embed Online Resources

wikipedia_bot.add("https://en.wikipedia.org/wiki/Donald_Trump")
wikipedia_bot.add("https://en.wikipedia.org/wiki/Barack_Obama")

while True:
    question = input("Enter your question, or 'quit' to stop the program.\n >>")

    if question == 'quit':
        break

    response = wikipedia_bot.query(question)
    print(f"\n{response}\n")

在这个片段中,聊天机器人是使用EmbeddChain库制作的,用于处理选定的维基百科文章。OpenAI API密钥配置为环境变量,以启用此交互。这个名为“wikipedia_bot”的聊天机器人旨在使用唐纳德·特朗普和巴拉克·奥巴马的文章进行对话。这是通过EmbeddChain的“App”类及其“add”方法实现的,该方法允许我们指定哪些维基百科文章将作为机器人的数据源。