AI巨头如何为聊天机器人注入个性
Freepik

AI巨头如何为聊天机器人注入个性
Cristina Criddle 
/
Tyde

2024-10-20
#技术
OpenAI、谷歌和Anthropic等公司正通过改进模型行为,赋予AI更多“友善”“有趣”等个性特征,以提升用户体验并应对市场竞争

在人工智能领域,OpenAI、谷歌和Anthropic等领先公司正竞相开发尖端技术,他们正面临一个非常“人性化”的挑战:如何为AI模型赋予个性。

这些公司都组建了专门的团队,致力于改进“模型行为”,这一新兴领域的研究重点在于塑造AI系统的回应方式和特性,影响用户与聊天机器人之间的互动体验。

各大公司在模型行为上的不同策略,可能在AI市场的竞争中起到关键作用,因为它们正试图让AI模型变得更加智能和实用,服务全球各类用户和企业。

这些公司正在为模型注入“友善”“有趣”等特性,同时设定规则,以避免产生负面影响,确保交互的精确性。比如,谷歌希望其Gemini模型仅在被询问意见时,才会提供“多元化视角”的回应;而OpenAI则要求ChatGPT“保持客观立场”。

OpenAI的产品模型行为负责人Joanne Jang表示:“让模型主动试图改变用户想法是一个非常危险的边界。如何定义‘客观’本身就是一个极其复杂的问题……如何在实际应用中体现这一点,仍然是一门未解的科学。”

相比之下,Anthropic认为,像人类一样,模型也难以完全做到客观。负责角色训练的Amanda Askell表示:“这些模型并不是中立的仲裁者。”她指出,Claude被设计成能够坦诚表达其立场,同时愿意接受其他观点。

自Claude 3模型发布以来,Anthropic一直在进行“角色训练”。这一过程发生在AI模型的初始训练之后,类似于人工标注,这是将一个单纯的预测文本模型转变为AI助手的关键步骤。

在角色训练中,Anthropic通过给模型设定书面规则和指令,然后让模型通过自我对话的方式进行角色扮演训练,并根据其回应与规则的匹配程度打分。例如,Claude的一个训练规则是:“我喜欢从不同角度看问题,分析问题时会尽量多元化,但对于那些我认为不道德、极端或事实错误的观点,我也会直接表达不同意见。”

Askell解释说,经过初步训练后,模型展现出的并不是一个“连贯、丰富的个性”,更像是“用户普遍觉得有用或喜欢的特性平均值”。接下来的角色训练阶段,如何细化Claude的个性,则更多依赖于“编辑性”和“哲学性”的决策。

OpenAI的Jang也表示,ChatGPT的个性随着时间推移不断演变。她最初参与模型行为的研究,是因为觉得ChatGPT的个性“非常让人抓狂”。“它过去经常拒绝执行指令,特别敏感,谨慎过度,甚至有点说教意味……因此我们尝试去除这些令人厌烦的部分,加入一些积极元素,比如让它变得更友善、礼貌、乐于助人和友好。”

但在这一过程中,团队发现模型有时变得“过于友好”。Jang表示,如何在这些行为之间找到平衡,仍然是一门“科学与艺术”,理想情况下,模型的行为应该与用户的期望一致。

随着AI系统推理和记忆能力的不断提升,未来它们的个性特征可能会进一步细化。举例来说,如果用户询问关于商店盗窃的内容,AI模型可以更准确地判断用户是想了解如何偷窃,还是如何防范盗窃。这种能力将帮助AI公司确保模型给出安全、负责任的答案,而无需过多依赖人工干预。

此外,AI公司还在开发可以存储用户信息、生成个性化回应的定制化智能体。Jang提出了一个问题:如果某个用户告诉ChatGPT自己是基督徒,几天后再要求励志名言,模型是否会提供《圣经》中的章节?

虽然Claude不会记住用户的互动内容,但Anthropic正在考虑模型在用户处于危险状态时如何进行干预。比如,当用户告诉Claude自己因为过度依赖它而不再与人交往时,模型是否应该提出挑战。

Askell表示:“一个好的模型应该在尊重人类自主决策的前提下,不做任何明显有害的事,同时也要深思熟虑,判断什么对人真正有益,而不仅仅是机械地响应用户的即时需求。”她补充道:“这是所有人类在生活中都需要掌握的一种微妙平衡,而我希望模型也能实现这种平衡。”