<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Softmax on Answer</title>
    <link>https://answer.freetools.me/tags/softmax/</link>
    <description>Recent content in Softmax on Answer</description>
    <generator>Hugo -- 0.152.2</generator>
    <language>zh-cn</language>
    <lastBuildDate>Thu, 12 Mar 2026 18:53:52 +0800</lastBuildDate>
    <atom:link href="https://answer.freetools.me/tags/softmax/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Softmax的数值稳定性：为什么一行简单的代码能让训练崩溃</title>
      <link>https://answer.freetools.me/softmax%E7%9A%84%E6%95%B0%E5%80%BC%E7%A8%B3%E5%AE%9A%E6%80%A7%E4%B8%BA%E4%BB%80%E4%B9%88%E4%B8%80%E8%A1%8C%E7%AE%80%E5%8D%95%E7%9A%84%E4%BB%A3%E7%A0%81%E8%83%BD%E8%AE%A9%E8%AE%AD%E7%BB%83%E5%B4%A9%E6%BA%83/</link>
      <pubDate>Thu, 12 Mar 2026 18:53:52 +0800</pubDate>
      <guid>https://answer.freetools.me/softmax%E7%9A%84%E6%95%B0%E5%80%BC%E7%A8%B3%E5%AE%9A%E6%80%A7%E4%B8%BA%E4%BB%80%E4%B9%88%E4%B8%80%E8%A1%8C%E7%AE%80%E5%8D%95%E7%9A%84%E4%BB%A3%E7%A0%81%E8%83%BD%E8%AE%A9%E8%AE%AD%E7%BB%83%E5%B4%A9%E6%BA%83/</guid>
      <description>从IEEE 754浮点数的物理限制，到溢出下溢的数学根源，再到Safe Softmax、Log-Sum-Exp和Flash Attention在线算法，深度解析深度学习中最被忽视的数值问题</description>
    </item>
    <item>
      <title>浮点数的深渊：深度学习数值稳定性的完整解析</title>
      <link>https://answer.freetools.me/%E6%B5%AE%E7%82%B9%E6%95%B0%E7%9A%84%E6%B7%B1%E6%B8%8A%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%95%B0%E5%80%BC%E7%A8%B3%E5%AE%9A%E6%80%A7%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</link>
      <pubDate>Thu, 12 Mar 2026 09:22:03 +0800</pubDate>
      <guid>https://answer.freetools.me/%E6%B5%AE%E7%82%B9%E6%95%B0%E7%9A%84%E6%B7%B1%E6%B8%8A%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E6%95%B0%E5%80%BC%E7%A8%B3%E5%AE%9A%E6%80%A7%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</guid>
      <description>从IEEE 754浮点数标准到混合精度训练，从Softmax溢出到梯度消失，系统解析深度学习中数值稳定性问题的根源、表现与解决方案。涵盖FP16/BF16格式差异、Log-Sum-Exp技巧、损失缩放原理、Flash Attention数值优化等核心技术，以及PyTorch/TensorFlow中的最佳实践。</description>
    </item>
    <item>
      <title>Sigmoid与Softmax：多分类与多标签任务的激活函数选择逻辑</title>
      <link>https://answer.freetools.me/sigmoid%E4%B8%8Esoftmax%E5%A4%9A%E5%88%86%E7%B1%BB%E4%B8%8E%E5%A4%9A%E6%A0%87%E7%AD%BE%E4%BB%BB%E5%8A%A1%E7%9A%84%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E9%80%89%E6%8B%A9%E9%80%BB%E8%BE%91/</link>
      <pubDate>Thu, 12 Mar 2026 08:45:14 +0800</pubDate>
      <guid>https://answer.freetools.me/sigmoid%E4%B8%8Esoftmax%E5%A4%9A%E5%88%86%E7%B1%BB%E4%B8%8E%E5%A4%9A%E6%A0%87%E7%AD%BE%E4%BB%BB%E5%8A%A1%E7%9A%84%E6%BF%80%E6%B4%BB%E5%87%BD%E6%95%B0%E9%80%89%E6%8B%A9%E9%80%BB%E8%BE%91/</guid>
      <description>深入解析Sigmoid与Softmax激活函数的本质差异、数学原理、梯度特性，以及在多分类与多标签任务中的正确选择方法。从概率分布假设到训练动态，全面揭示这个面试高频问题背后的技术真相。</description>
    </item>
    <item>
      <title>Logits：神经网络输出的原始真相，从概念到实践的完整解析</title>
      <link>https://answer.freetools.me/logits%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E8%BE%93%E5%87%BA%E7%9A%84%E5%8E%9F%E5%A7%8B%E7%9C%9F%E7%9B%B8%E4%BB%8E%E6%A6%82%E5%BF%B5%E5%88%B0%E5%AE%9E%E8%B7%B5%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</link>
      <pubDate>Thu, 12 Mar 2026 07:33:21 +0800</pubDate>
      <guid>https://answer.freetools.me/logits%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E8%BE%93%E5%87%BA%E7%9A%84%E5%8E%9F%E5%A7%8B%E7%9C%9F%E7%9B%B8%E4%BB%8E%E6%A6%82%E5%BF%B5%E5%88%B0%E5%AE%9E%E8%B7%B5%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</guid>
      <description>深入解析神经网络中logits的本质：从统计学中的log-odds概念起源，到现代深度学习中作为模型&amp;#34;思考过程&amp;#34;的核心载体。涵盖logits与softmax的数学关系、温度参数的作用机制、logit bias等处理技术、以及在知识蒸馏、模型校准、不确定性量化等场景的实际应用。</description>
    </item>
    <item>
      <title>交叉熵损失函数：为什么这个公式统治了深度学习的概率预测</title>
      <link>https://answer.freetools.me/%E4%BA%A4%E5%8F%89%E7%86%B5%E6%8D%9F%E5%A4%B1%E5%87%BD%E6%95%B0%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E4%B8%AA%E5%85%AC%E5%BC%8F%E7%BB%9F%E6%B2%BB%E4%BA%86%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E7%9A%84%E6%A6%82%E7%8E%87%E9%A2%84%E6%B5%8B/</link>
      <pubDate>Wed, 11 Mar 2026 22:38:36 +0800</pubDate>
      <guid>https://answer.freetools.me/%E4%BA%A4%E5%8F%89%E7%86%B5%E6%8D%9F%E5%A4%B1%E5%87%BD%E6%95%B0%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E4%B8%AA%E5%85%AC%E5%BC%8F%E7%BB%9F%E6%B2%BB%E4%BA%86%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E7%9A%84%E6%A6%82%E7%8E%87%E9%A2%84%E6%B5%8B/</guid>
      <description>从信息论的自信息概念出发，深入解析交叉熵损失函数的数学原理、梯度推导、与最大似然估计的等价性，以及在大语言模型训练中的核心作用。涵盖熵、KL散度、困惑度、数值稳定性、标签平滑等关键技术细节。</description>
    </item>
    <item>
      <title>Softmax函数：为什么这个公式统治了神经网络的概率输出</title>
      <link>https://answer.freetools.me/softmax%E5%87%BD%E6%95%B0%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E4%B8%AA%E5%85%AC%E5%BC%8F%E7%BB%9F%E6%B2%BB%E4%BA%86%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E7%9A%84%E6%A6%82%E7%8E%87%E8%BE%93%E5%87%BA/</link>
      <pubDate>Wed, 11 Mar 2026 20:47:14 +0800</pubDate>
      <guid>https://answer.freetools.me/softmax%E5%87%BD%E6%95%B0%E4%B8%BA%E4%BB%80%E4%B9%88%E8%BF%99%E4%B8%AA%E5%85%AC%E5%BC%8F%E7%BB%9F%E6%B2%BB%E4%BA%86%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E7%9A%84%E6%A6%82%E7%8E%87%E8%BE%93%E5%87%BA/</guid>
      <description>从指数函数的放大效应到温度参数的物理意义，从交叉熵损失的完美配合到Transformer注意力机制，深入解析Softmax函数的数学原理、工程实践与替代方案演进。</description>
    </item>
    <item>
      <title>Softmax的数值稳定性问题：从溢出下溢到Log-Sum-Exp技巧的完整解析</title>
      <link>https://answer.freetools.me/softmax%E7%9A%84%E6%95%B0%E5%80%BC%E7%A8%B3%E5%AE%9A%E6%80%A7%E9%97%AE%E9%A2%98%E4%BB%8E%E6%BA%A2%E5%87%BA%E4%B8%8B%E6%BA%A2%E5%88%B0log-sum-exp%E6%8A%80%E5%B7%A7%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</link>
      <pubDate>Wed, 11 Mar 2026 18:33:11 +0800</pubDate>
      <guid>https://answer.freetools.me/softmax%E7%9A%84%E6%95%B0%E5%80%BC%E7%A8%B3%E5%AE%9A%E6%80%A7%E9%97%AE%E9%A2%98%E4%BB%8E%E6%BA%A2%E5%87%BA%E4%B8%8B%E6%BA%A2%E5%88%B0log-sum-exp%E6%8A%80%E5%B7%A7%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</guid>
      <description>深入解析Softmax函数的数值稳定性问题，从IEEE 754浮点数表示的物理限制，到Log-Sum-Exp技巧的数学原理，再到混合精度训练中的Loss Scaling策略。涵盖Transformer注意力机制、Flash Attention在线Softmax算法，以及大模型训练中的数值问题诊断与解决方案。</description>
    </item>
    <item>
      <title>Temperature 参数如何控制大模型的&#34;创造性&#34;与&#34;确定性&#34;</title>
      <link>https://answer.freetools.me/temperature-%E5%8F%82%E6%95%B0%E5%A6%82%E4%BD%95%E6%8E%A7%E5%88%B6%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84%E5%88%9B%E9%80%A0%E6%80%A7%E4%B8%8E%E7%A1%AE%E5%AE%9A%E6%80%A7/</link>
      <pubDate>Wed, 11 Mar 2026 12:14:36 +0800</pubDate>
      <guid>https://answer.freetools.me/temperature-%E5%8F%82%E6%95%B0%E5%A6%82%E4%BD%95%E6%8E%A7%E5%88%B6%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%9A%84%E5%88%9B%E9%80%A0%E6%80%A7%E4%B8%8E%E7%A1%AE%E5%AE%9A%E6%80%A7/</guid>
      <description>深入解析大语言模型中 Temperature 参数的数学原理、物理渊源与实践指南。从 Softmax 函数到玻尔兹曼分布，揭示这个看似简单的参数如何重塑模型的输出分布，以及在不同任务场景下如何选择合适的温度值。</description>
    </item>
    <item>
      <title>第一个Token的隐形权力：Attention Sink如何拯救流式大模型</title>
      <link>https://answer.freetools.me/%E7%AC%AC%E4%B8%80%E4%B8%AAtoken%E7%9A%84%E9%9A%90%E5%BD%A2%E6%9D%83%E5%8A%9Battention-sink%E5%A6%82%E4%BD%95%E6%8B%AF%E6%95%91%E6%B5%81%E5%BC%8F%E5%A4%A7%E6%A8%A1%E5%9E%8B/</link>
      <pubDate>Mon, 09 Mar 2026 05:46:41 +0800</pubDate>
      <guid>https://answer.freetools.me/%E7%AC%AC%E4%B8%80%E4%B8%AAtoken%E7%9A%84%E9%9A%90%E5%BD%A2%E6%9D%83%E5%8A%9Battention-sink%E5%A6%82%E4%BD%95%E6%8B%AF%E6%95%91%E6%B5%81%E5%BC%8F%E5%A4%A7%E6%A8%A1%E5%9E%8B/</guid>
      <description>深入解析大模型流式推理崩溃的根本原因。从Softmax归一化的数学约束到RoPE位置编码的几何特性，系统阐述Attention Sink现象的发现过程、数学原理与StreamingLLM解决方案。涵盖ICLR 2024/2025最新研究、Sigmoid Attention替代方案，以及vLLM等框架的工程实践。</description>
    </item>
  </channel>
</rss>
