修改一个知识为何让千亿参数模型崩溃

2022年,Kevin Meng等人在NeurIPS发表了题为"Locating and Editing Factual Associations in GPT"的论文,提出了ROME(Rank-One Model Editing)方法。研究者们声称,他们可以精确定位模型中存储特定事实的位置,并通过数学手段直接修改权重来更新知识。这篇论文引起了巨大轰动——人们第一次看到了不重新训练就能更新模型知识的希望。 ...

20 min · 9890 words

FFN如何成为大模型的"知识仓库":从键值存储到知识编辑的技术真相

当GPT-4被问到"法国的首都是哪里"时,它能准确回答"巴黎"。这个看似简单的过程背后,隐藏着一个深刻的问题:大模型是如何"记住"这些事实的?是参数随机分布,还是有组织的存储? ...

11 min · 5480 words

为什么最先进的AI依然会编造事实:从训练机制到评估陷阱的技术解密

2023年5月,纽约联邦法院审理一起看似普通的航空伤害赔偿案。原告Roberto Mata的代理律师提交了一份详尽的法律简报,引用了Zicherman v. Korean Air Lines Co.、Varghese v. China Southern Airlines Co.等多个先例。问题在于——这些案例在现实中根本不存在。 ...

10 min · 4628 words