ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

你对 ChatGPT 的要求,说一次它就记住了。

「我是一名小学迷信教师,现在想请你解释一些迷信概念,我希望你能用小学生可以听懂的体例解释,并采用举例、类比等技巧……」

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

在应用 ChatGPT 时,为了让它生成的谜底更贴合你的需要,prompt 的构思通常要花一些工夫。而且,即使你的需要屡屡都差不多,在开启一轮新对话时,你依然要像复制模板一样把这些需要复制出来,让 prompt 变得很是冗长。

最近,OpenAI 公布了这一题目的解决方案,推出了「自定义指令(custom instructions)」功用。

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

「自定义指令」功用开启步调。参见:https://twitter.com/Authority_AI/status/1682098519715225600

简而言之,这一功用旨在帮你把一些常用指令变成一个模板,在发问以前就固定下来,从而简化之后屡屡发问的复杂程度,避免屡屡都写上「将谜底控制在 1000 字以下」这类重复需要。

与以往直接发问的体例不同,ChatGPT 会在你设置时询问两个题目,一个用来了解你的基本信息(比如你的职业、兴趣爱好、喜欢的话题、所在的地点、想达成的目标等),另一个用来报告 ChatGPT 你想要什么样的回复(正式 / 非正式、谜底长短、模型该发表意见还是保持中立等)。

举个例子,假如你是一位小学教师,你可以在回覆第一个题目时报告 ChatGPT 你的工作内容(教授小学迷信),在回覆第二个题目时限定回覆格式(以表格体例呈现,概述优缺点等)。

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

然后,ChatGPT 会综合上述指令给出谜底:

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

这一功用对于用 ChatGPT 辅助编程工作的开发者来说也很是有效。

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

OpenAI 表示,此功用将从今天开始为 Plus 用户提供测试版,并在未来几周内扩展到所有效户。

值得一提的是,这个功用和以前的插件功用是相辅相成的。比如,如果你在自定义指令时说明你居住的城市,那么在应用订餐插件时,模型会将城市信息也考虑出来。

不过,OpenAI 表示,他们会应用你的自定义指令来训练模型。如果你担心隐私题目,可以在「data controls」栏中选择禁用。

在该功用发布后,不少网友进行了实验。机器之心也在第一时间进行了体验。

还是以开头提到的「小学迷信教师」身份为例,我们先把一些个人信息和对谜底的要求报告 ChatGPT。

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

然后,我们实验让 ChatGPT 解释一下什么是「深度学习」。结果显示,ChatGPT 确实按照了我们预定义的指令。

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

如果在后续的对话中不想让模型继续按照,可以在「自定义指令」界面将其关掉。

当然,以上只是一个很是简单的应用场景,总有大牛能用新功用玩出新花样。比如,有人将其用到了以前的自动化智能体项目中,要求 ChatGPT 在拿到每个题目后都按照一定的步调将题目分解、存档并和发问者交互,最终按步调解决题目。

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

在推荐这个新功用的推文中,OpenAI CEO Sam Altman 评价说,「自定义指令只是朝着更加个性化的 AI 迈出的一小步,但却是很是有趣 / 有效的一步。」看来,OpenAI 未来有望推出更多类似功用,让 ChatGPT 变得更易用、更高效。

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

不过,也有人提出了疑虑:考虑到用户提出的题目很多时候和他们的个人信息并没有关系,这种情况下,如何避免这些信息对谜底产生不必要的影响?难不成要手动频繁切换?

ChatGPT推出自定义指令:说一次就记住,屡屡对话都能遵守

参考链接:

https://openai.com/blog/custom-instructions-for-chatgpt

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/31819

(0)
上一篇 2023年7月21日 下午2:29
下一篇 2023年7月21日 下午2:35

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注