为什么大模型能压缩到原来的1/4却几乎不损失性能:量化技术的数学真相

2022年,GPTQ论文报告了一个令人惊讶的结果:将OPT-175B模型从FP16量化到INT4后,困惑度从8.34上升到8.37,增幅仅为0.36%。这意味着将模型体积压缩75%,性能几乎不损失。 ...

15 min · 7371 words