为什么大模型读不完一本书——从注意力机制到长上下文突围的技术全景

你有没有遇到过这样的情况:把一篇三万字的技术文档投给大模型,它告诉你"上下文长度超出限制";或者好不容易把文档拆成小块分别处理,却发现模型完全忘记了前面章节的内容,给出的分析前后矛盾。 ...

11 min · 5239 words

为什么修改大模型中的一个知识点会引发连锁崩溃

2022年,斯坦福大学的研究团队发表了一篇引人注目的论文。他们声称找到了一种方法,可以精准地修改大语言模型中的特定知识,而不影响其他能力。方法叫做ROME(Rank-One Model Editing),原理听起来很优雅:先用因果追踪定位知识存储的位置,然后像编辑数据库一样修改那个位置。 ...

12 min · 5655 words

为什么让大模型输出JSON格式这么难?从自回归生成到约束解码的技术突围

一个金融科技团队花了三个月开发智能客服系统,核心功能是将用户的自然语言查询转换成结构化的JSON格式,再传递给后端API处理。测试环境下一切正常,但上线第一天就收到大量报错——JSON解析失败。排查日志发现,模型输出的JSON有的缺少逗号,有的多了尾随逗号,有的字段名拼错了,还有的直接在JSON后面加了一段"解释说明"。 ...

15 min · 7134 words

LoRA低秩适配为何能以千分之一参数量实现高效微调

一个拥有1750亿参数的语言模型,微调时只需训练不到2000万参数——这听起来像是天方夜谭,但微软研究院在2021年发表的论文让这个"魔术"变成了现实。 ...

8 min · 3586 words

为什么大模型连简单的加法都会算错?从分词陷阱到算术推理的技术困境

2024年7月,一个看似荒谬的问题在社交媒体上疯传:「9.11和9.9哪个更大?」 当用户把这个问题抛给ChatGPT时,答案令人瞠目——AI一本正经地回答「9.11更大」。这不是个案。同样的测试在不同时间、不同用户那里重复了上千次,错误率高达50%。 ...

8 min · 4007 words

为什么AI绘画的手总是画错:从解剖学约束到注意力机制的技术困境

2022年夏天,一幅AI生成的图像在互联网上疯传:画面中央是一位女性,她的右手有七根手指,左手的手指像融化的蜡烛一样缠绕在一起。这不是某个先锋艺术家的刻意创作,而是当时最先进的图像生成模型DALL-E 2的"杰作"。 ...

11 min · 5482 words

为什么大模型记不住之前的对话——从无状态推理到长期记忆架构的技术突围

你有没有这样的经历:和一个AI助手聊了很久,详细告诉它你的饮食偏好、工作习惯、兴趣爱好,几周后再打开对话,它却像第一次认识你一样,问你是不是素食者——明明你上次已经说过不下三次。这不是AI"健忘",而是它从未真正"记住"过任何东西。 ...

12 min · 5655 words