当注意力成为瓶颈:从O(n²)困境到线性复杂度的技术突围
2017年,Google Research发表了题为《Attention Is All You Need》的论文,Transformer架构从此横空出世。但论文标题中的"All You Need"隐含了一个不言自明的假设:你能够负担得起注意力的代价。 ...
2017年,Google Research发表了题为《Attention Is All You Need》的论文,Transformer架构从此横空出世。但论文标题中的"All You Need"隐含了一个不言自明的假设:你能够负担得起注意力的代价。 ...
2024年,一个奇怪的现象在社交媒体上引发热议:当用户问ChatGPT"strawberry这个词里有几个r"时,模型自信地回答"两个"。这个错误如此基础,以至于有人质疑:连小学生都能数对的事,为什么拥有数千亿参数的大模型做不到? ...
2022年,Google Research的研究者在分析GPT-3系列模型的算术能力时,发现了一个令人费解的现象:在三位数加法任务上,60亿参数的模型准确率仅为1%,130亿参数的模型提升到8%,但当模型扩展到1750亿参数时,准确率突然跳跃到80%。这不是渐进式的提升,而是近乎垂直的跃迁。 ...
2020年5月,OpenAI发布了一篇题为《Language Models are Few-Shot Learners》的论文。论文的核心发现令研究社区震惊:一个拥有1750亿参数的语言模型,竟然可以在不更新任何参数的情况下,仅凭提示中的几个示例就学会全新的任务。 ...
2023年5月,纽约联邦法院审理一起看似普通的航空伤害赔偿案。原告Roberto Mata的代理律师提交了一份详尽的法律简报,引用了Zicherman v. Korean Air Lines Co.、Varghese v. China Southern Airlines Co.等多个先例。问题在于——这些案例在现实中根本不存在。 ...
你在嘈杂的咖啡馆里对着手机说"导航回家",屏幕上却显示"导航加回"。你清晰地念出同事的名字"李明",语音助手却把它听成了"黎明"。你在会议中想用语音转文字记录重要内容,结果输出的文本里出现了完全不存在的句子。 ...
打开手机上的天气App,看到明天"晴转多云,降水概率20%"。第二天出门,却被一场突如其来的暴雨淋成了落汤鸡。这种经历几乎每个人都有过,随之而来的疑问也几乎一样:都2026年了,连大模型都能写代码了,为什么天气预报还是不准? ...