为什么高斯分布统治了机器学习的隐空间:从中心极限定理到扩散模型的数学真相

为什么高斯分布统治了机器学习的隐空间:从中心极限定理到扩散模型的数学真相 打开任何一个深度学习模型,你会发现高斯分布无处不在:权重初始化服从$\mathcal{N}(0, \sqrt{2/n})$,VAE的隐变量被约束为$\mathcal{N}(\mu, \sigma^2)$,扩散模型的前向过程逐步添加高斯噪声,连随机梯度下降的噪声都被近似为高斯分布。这不是巧合,也不是习惯使然——高斯分布对机器学习的统治,源于数学深处的必然性。 ...

22 min · 10636 words

为什么大模型不需要训练就能学会新任务:从贝叶斯推断到隐式权重更新的技术解密

2020年5月,OpenAI发布了一篇题为《Language Models are Few-Shot Learners》的论文。论文的核心发现令研究社区震惊:一个拥有1750亿参数的语言模型,竟然可以在不更新任何参数的情况下,仅凭提示中的几个示例就学会全新的任务。 ...

10 min · 4922 words