title: “为什么大模型会一本正经地胡说八道?从概率生成到注意力机制的技术解剖” date: “2026-03-07T09:12:30+08:00” description: “深入解析大语言模型幻觉现象的技术本质,从Transformer架构限制、训练数据缺陷到softmax瓶颈,揭示为什么幻觉不是bug而是架构的必然产物,以及RAG、思维链等缓解方案的有效性边界。” draft: false categories: [“人工智能”, “机器学习”, “深度学习”] tags: [“大模型幻觉”, “Transformer”, “注意力机制”, “LLM”, “RAG”, “概率生成”, “AI可靠性”] 2023年5月,纽约律师Steven Schwartz在准备法庭辩护时,让ChatGPT查找类似案例。模型自信地提供了《Martinez v. United States》《Jones v. United States》等多个判例,包括完整的案号、判决日期和法官意见。Schwartz将这些"案例"写入了法庭文件。直到法官要求核实,人们才发现:这些案例全部不存在。模型不仅虚构了案件名称,还编造了引文格式、判决细节和法理分析——每一处都符合法律文书的规范,却全是子虚乌有。Schwartz后来在宣誓书中承认,他"误以为ChatGPT不可能编造虚假信息"。
...