大模型的上下文窗口:从Token限制到有效上下文管理的完整解析

大模型的上下文窗口:从Token限制到有效上下文管理的完整解析 当你向一个语言模型发送请求时,你有没有想过:为什么有些模型只能处理几千字,而有些却能吞下整本书?为什么即便模型声称支持128K上下文,你的长文档问答效果却时好时坏?为什么同样的提示词放在文档开头和中间,模型的回答准确率会相差几十个百分点? ...

15 min · 7425 words

对话模板:大模型应用中最容易被忽视的隐形语言

当你调用一个大语言模型的API时,通常会传入类似这样的结构: messages = [ {"role": "system", "content": "你是一个有帮助的助手。"}, {"role": "user", "content": "你好!"}, {"role": "assistant", "content": "你好!有什么可以帮助你的吗?"}, {"role": "user", "content": "2+2等于多少?"}, ] 这个整洁的消息列表,在送入模型之前,会被转换成一段连续的文本。问题是:这段文本长什么样? ...

10 min · 4709 words