当前位置: 首页 > 资讯 > 科技 > Anthropic揭晓Claude AI模型内部提示机制:解锁对话系统的深度秘密
  • 0
  • 0
  • 分享

Anthropic揭晓Claude AI模型内部提示机制:解锁对话系统的深度秘密

Anthropic 2024-08-27 14:59:20 爱吃爆米花

8月27日消息,Anthropic公司做出了一项透明化的举措,向公众披露了其Claude AI模型背后的“系统提示词”细节。这一公开行为不仅为AI研究社群提供了宝贵的学习资源,还促进了技术透明度,让外界得以一窥高级语言模型训练的内部机制及设计理念。

系统提示词(System prompt)

为了让 AI 模型更好地理解人类指令,提示词(Prompt)工程实际上包含 2 层核心内容,用户提示词(User prompt)和系统提示词(System prompt):

用户提示词:用户输入的提示词,然后 AI 模型基于用户提示词生成答案。

系统提示词:这是由系统生成的提示,通常用于设定对话的背景、提供指导或规定规则。

注:通常情况下,系统提示词会让模型了解自己的基本素质,以及应该做什么、不应该做什么。

业内常规做法

从 OpenAI 到 Anthropic,每一家生成式人工智能厂商都会使用系统提示来防止(或至少试图防止)模型出现不良行为,并引导模型回复的总体语气和情绪。

例如,系统提示词可能会告诉模型,它应该礼貌但绝不能道歉,或者坦诚地承认它不可能知道所有事情。

但厂商可能是出于竞争等方面原因,以及避免不良用户在了解这些信息后绕过安全防护,通常保密这些系统提示词。

Anthropic 选择公开系统提示词

不过,Anthropic 一直在努力将自己描绘成一家更道德、更透明的人工智能供应商,它已在 Claude iOS 和 Android 应用程序以及网络上公布了其最新模型(Claude 3.5 Opus、Sonnet 和 Haiku)的系统提示。

Anthropic 开发者关系负责人亚历克斯·艾伯特(Alex Albert)在 X 上发表的一篇文章中说,Anthropic 计划在更新和微调系统提示的过程中,定期公布此类信息。

来源:it之家
免责声明:本内容来自互联网,不代表本网站的观点和立场,如有侵犯你的权益请来信告知;如果你觉得好,欢迎分享给你的朋友,本文网址 https://wangzhidaquan.com/zixun/81484.html
文章标签
评论

文明上网,理性发言,共同做网络文明传播者

验证码
提交
热榜
热门游戏
换一换
热门软件
换一换