Prompt工具PromptLayer如何使用

开发技术 作者:iii 2024-04-29 00:55:02
本篇内容主要讲解“Prompt工具PromptLayer如何使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Prompt工具P...

本篇内容主要讲解“Prompt工具PromptLayer如何使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Prompt工具PromptLayer如何使用”吧!

前言

我们基于gpt开发的时候,其实调试prompt的时间占比的很大的,90%的时间花在prompt调试也不过分。今天给大家介绍一个最近在使用上来比较好的Prompt工具,开发起来简单,功能非常实用。

它就是:promptlayer.com/

Prompt工具PromptLayer如何使用

官网介绍

PromptLayer 是一个开发工具,可让您跟踪、管理和共享 GPT 提示工程。它充当您的代码和 OpenAI 的 python 库之间的中间件,记录您的所有 API 请求并保存相关元数据,以便在 PromptLayer 仪表板中轻松浏览和搜索。

怎么运行的

PromptLayer 通过包装您的 OpenAI API 请求并在发送后记录有关它们的数据来工作。这一切都在您的机器上完成,您的 API 密钥永远不会发送。这意味着它不会干扰您现有代码库的功能,也不需要对您的应用程序架构进行任何更改。您需要做的就是将 PromptLayer 作为附加组件添加到您现有的 LLM 应用程序中,然后像往常一样开始发出请求。

当您发出 OpenAI API 请求时,PromptLayer 会记录它们并保存相关元数据,例如使用的提示、返回的响应以及传递的任何其他参数。此数据由 PromptLayer 存储,可以通过 PromptLayer 仪表板轻松访问。

特征

PromptLayer 的一些主要功能包括:

  • API 请求日志记录: PromptLayer 记录您所有的 OpenAI API 请求,允许您在 PromptLayer 仪表板中搜索和探索请求历史记录。

  • 元数据跟踪: 在后台,PromptLayer在请求发出后记录每个 OpenAI 请求,保存相关元数据,例如使用的提示、返回的响应以及传递的任何其他参数。

  • 易于集成: PromptLayer 是现有 LLM 应用程序的附加组件,无需更改应用程序的体系结构。

  • 专为生产而设计: PromptLayer 旨在帮助维护生产中的 LLM 并协助开发过程。它是产品就绪的,即使失败也不会干扰您的应用程序的功能。

  • 协作: PromptLayer 允许您与他人分享您的提示工程,从而轻松地与队友协作项目或与更广泛的社区分享您的工作。

使用教程

python中使用

安装

pip install promptlayer

导入,并重新赋值openai = promptlayer.openai ,官方文档上是说:所有 OpenAI 请求都是从您的机器本地发出的,PromptLayer 只是记录请求

import promptlayer
promptlayer.api_key = "<YOUR PromptLayer API KEY pl_xxxxxx>"
openai = promptlayer.openai

跟原生的openai调用一样,使用create创建,区别是pl_tags 是你在promptlayer创建的标签

openai.Completion.create(
					engine="text-ada-001", 
					prompt="My name is", 
					pl_tags=["name-guessing", "pipeline-2"]
)

完整代码如下:

import promptlayer
import os
promptlayer.api_key = os.environ.get("PROMPTLAYER_API_KEY")
openai=promptlayer.openai
openai.api_key = os.environ.get("OPENAI_API_KEY")
openai.Completion.create(
					engine="text-ada-001", 
					prompt="My name is", 
					pl_tags=["name-guessing", "pipeline-2"]
)

结合LangChain使用

导入

import os
from langchain.chat_models import PromptLayerChatOpenAI
from langchain.schema import HumanMessage

设置PROMPTLAYER_API_KEY

os.environ["PROMPTLAYER_API_KEY"] = "**********"

使用

chat = PromptLayerChatOpenAI(pl_tags=["langchain"])
chat([HumanMessage(content="I am a cat and I want")])

RESTAPI使用

import requests
request_response = requests.post(
    "https://api.promptlayer.com/rest/track-request",
    json={
        "function_name": "openai.Completion.create",
				// kwargs will need messages if using chat-based completion
        "kwargs": {"engine": "text-ada-001", "prompt": "My name is"},
        "tags": ["hello", "world"],
        "request_response": {"id": "cmpl-6TEeJCRVlqQSQqhD8CYKd1HdCcFxM", "object": "text_completion", "created": 1672425843, "model": "text-ada-001", "choices": [{"text": " advocacy"\\n\\nMy name is advocacy.", "index": 0, "logprobs": None, "finish_reason": "stop"}]},
        "request_start_time": 1673987077.463504,
        "request_end_time": 1673987077.463504,
				"prompt_id": "<PROMPT ID>",
				"prompt_input_variables": "<Dictionary of variables for prompt>"
        "api_key": "pl_<YOUR API KEY>",
    },
)

参数:

  • api_key

  • function_name— 函数的名称。它应该是以下之一openai.Completion.create,或者openai.ChatCompletion.create我们使用它来知道如何正确解析响应

  • kwargs — 传递给 OpenAI API 的关键字参数。通常它至少应该包括engineprompt如果您使用的是聊天完成或 GPT-4,它应该包含messages而不是prompt.

  • request_response— OpenAI 的回应(他们是如何把它还给你的)

  • request_start_time— 你开始向 OpenAI 发出请求的时间

  • request_end_time— 你结束对 OpenAI 的请求的时间

  • tags — 可选的字符串标签数组,用于在 PL 仪表板上标记此请求

  • prompt_id— 可选的您用于此请求的 PL 注册表中提示的 ID(请参阅get-prompt-template如何获取此 ID,或者您可以从仪表板中的 URL 获取它)

  • prompt_input_variables— 可选的用于模板的输入变量。这用于语法突出显示,更重要的是,用于在您想要迭代提示时进行回测。

更多

分享prompt

Prompt工具PromptLayer如何使用

到此,相信大家对“Prompt工具PromptLayer如何使用”有了更深的了解,不妨来实际操作一番吧!这里是捷杰建站网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!

原创声明
本站部分文章基于互联网的整理,我们会把真正“有用/优质”的文章整理提供给各位开发者。本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
本文链接:http://www.jiecseo.com/news/show_19556.html
prompt