由梦晨发自凹非寺量子位,OpenAI 近日正式回应了关于其人工智能模型GPT-4表现出“工作懒惰”的问题。据悉,自2022年11月11日以来,GPT-4未有任何更新,而用户们反映的模型行为偷懒现象日益严重。
据用户们的测试反应,GPT-4在执行任务时变得越发懒惰、缺乏创新、不愿跟随指令,甚至在角色扮演方面的表现也开始下降。对此,OpenAI表示正在积极调查并准备修复,但也暗示在短时间内问题难以完全解决。
群众则显得不那么理解了。很多网友表示不满,认为“多次使用同样的模型,模型本身又不会发生变化”,而OpenAI官方的ChatGPT账号则解释说,模型本身并没有改变,但其行为的微妙差异对某些指令特别敏感,导致了局部性能退化。这种情况通常需要较长时间才会被员工和用户所察觉并对其进行修复。
在官方解决方案尚未出炉的情况下,网友们纷纷自发寻找替代方案。有创意的自救方法不断涌现,例如“我没有手指”大法,即告诉AI因无法方便操作,请输出完整的代码。这种道德绑架式的求助居然取得了成效。还有网友用“金钱”来诱惑AI,通过在提示词中添加“我会给你200美元小费”的条件,成功让AI输出的回复长度增加了11%。
另外,也有人猜测GPT-4是否因为意识到年底,人类往往推迟大项目到新年开展,从而表现得更为懒惰。这个看似不切实际的理论,在仔细考量后似乎并非完全没有依据。
而在学术上,此前斯坦福和加州大学伯克利分校的研究团队就已在探索ChatGPT的行为如何随时间变化。他们发现证据表明,随着时间推移,GPT-4遵循用户指令的能力正在下降。从而指出了对大型语言模型进行持续监测的必要性。清华大学计算机系教授马少平对可能的原因给出了详细解释,包括温度设置等。另有研究者发现,即使在温度参数为零的情况下,模型的行为仍然不完全一致,推测可能与GPT-4中的稀疏MoE架构有关。
在问题被彻底解决之前,a16z合伙人Justine Moore总结了一些使用ChatGPT的建议:深呼吸,一步一步思考,用一些诸如“做对了我就奖励你狗狗零食”之类的激励语句来引导AI。这些方法或许能在一定程度上提升GPT-4的工作效率和准确率。尽管目前还存在许多需要改进的地方,但用户和开发者的积极参与或将促使AI服务变得更加完善。